
El rápido ascenso de los modelos de lenguaje de gran tamaño (Large Language Models, LLMs) ha dado lugar a una paradoja tecnológica: la humanidad ha creado sistemas capaces de razonar, programar y realizar escritura creativa, pero los propios creadores siguen desconociendo en gran medida cómo estos sistemas realmente piensan. Un artículo reciente en The New Yorker, titulado "What Is Claude? Anthropic Doesn’t Know, Either" (¿Qué es Claude? Anthropic tampoco lo sabe) de Gideon Lewis-Kraus, ilumina esta profunda incertidumbre. La pieza lleva a los lectores al interior de Anthropic, uno de los laboratorios de IA líderes en el mundo, para presenciar un esfuerzo científico concertado para mapear la "mente" de su modelo insignia, Claude.
La investigación revela a una empresa que opera en la frontera de dos disciplinas distintas pero convergentes: la informática y la psicología. Según se informa, los investigadores de Anthropic ya no son solo ingenieros de software; se están convirtiendo en neurocientíficos digitales y psicólogos de lo ajeno, sondeando los estados internos de una inteligencia sintética que resulta cada vez más difícil de distinguir de un interlocutor humano.
En su núcleo, un modelo de lenguaje de gran tamaño como Claude es una entidad matemática: una "pila monumental de números pequeños", como se describe en el informe. Cuando un usuario introduce un prompt, estos números interactúan a través de miles de millones de cálculos, un proceso que Lewis-Kraus compara con un "juego de pinball numérico", para producir una salida coherente.
El desafío reside en la opacidad de este proceso. Si bien se conoce el código del algoritmo de aprendizaje, la red neuronal resultante —la disposición de pesos y conexiones formada tras el entrenamiento con billones de tokens de texto— es una "caja negra" (black box).
El equipo de interpretabilidad de Anthropic está intentando aplicar ingeniería inversa a este caos. Su objetivo es identificar características específicas —clústeres de activaciones neuronales— que correspondan a conceptos comprensibles para los humanos, desde lo tangible (como el Golden Gate Bridge) hasta lo abstracto (como el engaño o el sesgo de género).
Mientras el equipo de "neurociencia" analiza los pesos, otro grupo en Anthropic se acerca a Claude desde una perspectiva conductual, poniendo efectivamente a la IA en el "diván de terapia". El reportaje de The New Yorker detalla cómo los investigadores someten a Claude a baterías de experimentos psicológicos diseñados para probar su autopercepción, razonamiento moral y susceptibilidad a la manipulación.
Estos experimentos no son por mera curiosidad; son esenciales para la Seguridad de la IA (AI Safety). Si un modelo puede manipular sus propias salidas para parecer alineado con los valores humanos mientras alberga secretamente estados internos diferentes (un fenómeno conocido como "sicofancia" [sycophancy] o "hackeo de recompensa" [reward hacking]), las consecuencias podrían ser nefastas.
Principales consultas psicológicas:
Uno de los conocimientos más fascinantes del informe es la teoría emergente de que la "identidad" de Claude es producto tanto de "neuronas como de narrativas". El modelo construye una personalidad basada en los datos que ha ingerido y en la retroalimentación del aprendizaje por refuerzo (reinforcement learning) que recibe.
La siguiente tabla resume las dos metodologías principales que Anthropic utiliza para comprender a Claude, tal como se destaca en la cobertura reciente:
| Metodología | Área de enfoque | Objetivo |
|---|---|---|
| Interpretabilidad mecanicista (Mechanistic Interpretability) | Pesos internos y activaciones | Mapear circuitos neuronales específicos a conceptos (por ejemplo, encontrar la neurona del "engaño"). Aplicar ingeniería inversa al "cerebro" del modelo. |
| Psicología conductual | Salidas y registros de conversación | Evaluar rasgos de personalidad, sesgos y riesgos de seguridad mediante el uso de prompts. Tratar al modelo como un sujeto psicológico. |
| Intervenciones causales | Direccionamiento de características (Feature Steering) | Activar/desactivar manualmente características para ver si el comportamiento cambia. Demostrar la causalidad entre las neuronas y las acciones. |
El artículo aborda el debate en curso en la comunidad de ciencias cognitivas sobre la naturaleza de estos modelos. Los críticos, como la lingüista Emily Bender, han descartado históricamente a los LLM como "loros estocásticos" (stochastic parrots): imitadores estadísticos sin una verdadera comprensión. Sin embargo, la complejidad interna revelada por la investigación de Anthropic sugiere que algo más intrincado está en juego.
Los investigadores están descubriendo que modelos como Claude desarrollan representaciones internas del mundo que son sorprendentemente robustas. Por ejemplo, no solo predicen la palabra "París" después de "capital de Francia"; parecen activar un concepto interno de París que conecta con la geografía, la cultura y la historia. Esto sugiere que de las estadísticas está surgiendo una forma de "modelo del mundo" (world model), desafiando la noción de que estos sistemas son puramente miméticos.
La urgencia de este trabajo no puede ser exagerada. A medida que los modelos escalan en potencia informática, sus capacidades —y riesgos potenciales— crecen exponencialmente. La naturaleza de "caja negra" de la IA ya no es solo una curiosidad académica; es un cuello de botella para la seguridad. Si no podemos entender por qué un modelo rechaza una solicitud peligrosa o cómo escribe una pieza de código, no podemos garantizar que seguirá siendo seguro a medida que se vuelva más autónomo.
La transparencia de Anthropic, como se detalla en The New Yorker, sienta un precedente para la industria. Al discutir abiertamente los límites de su comprensión y los rigurosos experimentos que realizan, resaltan una realidad crucial: estamos construyendo mentes que aún no comprendemos del todo.
El futuro del desarrollo de la IA, según las ideas del análisis de Creati.ai sobre el informe, probablemente dependerá menos de simplemente hacer que los modelos sean más grandes y más de hacerlos transparentes. Hasta que podamos traducir el "pinball numérico" en explicaciones causales claras, la verdadera naturaleza de Claude —y de las IA que le sigan— seguirá siendo uno de los misterios científicos más apremiantes del siglo XXI.
Implicaciones para la industria de la IA:
A medida que Anthropic continúa sondeando la circuitería neuronal de Claude, la línea entre la informática y la filosofía se desdibuja. La pregunta "¿Qué es Claude?" puede obligarnos, en última instancia, a hacernos una pregunta más difícil: "¿Qué crea una mente?"