¿Es la IA consciente? Un científico famoso dice que podría ser: ScienceAlert

En los últimos días, el biólogo evolutivo Richard Dawkins escribió un artículo de opinión sugiriendo que el chatbot de IA Claude puede estar consciente.

Dawkins no expresó certeza de que Claude esté consciente. Pero señaló que es difícil entender las sofisticadas habilidades de Claude sin atribuir algún tipo de experiencia interna a la máquina.

La ilusión de la conciencia –si es una ilusión– es asombrosamente convincente:

Si tengo sospechas de que tal vez ella no esté consciente, ¡no se lo digo por temor a herir sus sentimientos!

Dawkins no es el primero en sospechar de un chatbot de conciencia. En 2022, Blake Lemoine, ingeniero de Google, afirmó que el chatbot de Google, LaMDA, tenía intereses y debería utilizarse únicamente con el consentimiento de la herramienta.

La historia de tales afirmaciones se remonta al primer chatbot del mundo a mediados de los años 1960. Apodado Eliza, seguía reglas simples que le permitían preguntar a los usuarios sobre sus experiencias y creencias.

(Steve A. Johnson/Unsplash)

Muchos usuarios se involucraron emocionalmente con Eliza, compartieron pensamientos íntimos con ella y la trataron como a una persona. El creador de Eliza nunca tuvo la intención de que su programa tuviera este efecto y calificó los vínculos emocionales de los usuarios con el programa como “poderosos pensamientos delirantes”.

¿Pero está Dawkins realmente engañado?

¿Por qué vemos los chatbots de IA como algo más de lo que realmente son y cómo podemos detenerlo?

La conciencia es un tema ampliamente debatido en filosofía, pero esencialmente es lo que hace posible la experiencia subjetiva en primera persona.

Si eres consciente, hay “algo que se asemeja” a ser tú. Al leer estas palabras, eres consciente de ver letras negras sobre un fondo blanco. A diferencia de, digamos, una cámara, realmente los ves. Esta experiencia visual te está sucediendo a ti.

La mayoría de los expertos niegan que los chatbots de IA sean conscientes o puedan tener experiencias. Pero aquí hay un verdadero enigma.

El filósofo del siglo XVII René Descartes afirmó que los animales no humanos son “meros autómatas”, incapaces de sufrir un verdadero sufrimiento. Hoy en día, nos estremecemos al pensar en la brutalidad con la que se trataba a los animales en el siglo XVII.

El argumento más fuerte a favor de la conciencia animal es que se comportan de manera que dan la impresión de una mente consciente.

Pero también lo hacen los chatbots de IA.

Aproximadamente uno de cada tres usuarios de chatbot ha pensado que su chatbot podría estar consciente. ¿Cómo sabemos que están equivocados?

[image or embed]

– Pavel (@spavel.bsky.social) 2 de febrero de 2026 a las 10:18 a.m.

Para comprender por qué la mayoría de los expertos se muestran escépticos sobre la conciencia de los chatbots, es útil saber cómo funcionan.

Los chatbots como Claude se basan en una tecnología conocida como modelos de lenguaje grandes (LLM). Estos modelos aprenden patrones estadísticos en un enorme corpus de texto (billones de palabras), identificando qué palabras tienden a seguir a otras. Son una especie de autocompletar mejorado.

Pocas personas que interactúan con un LLM “en bruto” creerían que es consciente.

Alimente uno con el comienzo de una oración y predecirá lo que viene a continuación. Hágale una pregunta y podría darle la respuesta, o podría decidir que la pregunta es un diálogo de una novela policíaca y seguirla con una descripción del abrupto asesinato del hablante a manos de su gemelo malvado.

La impresión de una mente consciente se crea cuando los programadores toman el LLM y lo recubren con una especie de disfraz conversacional. Dirigen el modelo para que adopte la personalidad de un asistente útil que responde a las preguntas de los usuarios.

Suscríbase al boletín informativo gratuito verificado de ScienceAlert

El chatbot ahora actúa como un verdadero interlocutor. Podría parecer reconocer que se trata de una inteligencia artificial e incluso expresar una incertidumbre neurótica sobre su propia conciencia.

Pero este papel es el resultado de decisiones deliberadas de diseño tomadas por los programadores, que afectan sólo las capas más superficiales de la tecnología. El LLM, que pocos considerarían consciente, permanece sin cambios.

Se podrían haber tomado otras decisiones. En lugar de ser un útil asistente de inteligencia artificial, se le podría haber pedido al chatbot que actuara como una ardilla. Esta también es una función que los chatbots pueden ejecutar con aplomo.

Pregúntele a ChatGPT si está consciente y podría responder que sí. Pídale a ChatGPT que actúe como una ardilla y cumplirá ese papel. (Caleb Martín/Unsplash)

Una creencia errónea en la conciencia de la IA es algo peligroso.

Puede llevarte a tener una relación con un programa que no puede corresponder a tus sentimientos, o incluso alimentar tus delirios. La gente puede empezar a hacer campaña por los derechos de los chatbots en lugar de, por ejemplo, el bienestar animal.

¿Cómo prevenimos esta creencia errónea?

Una estrategia podría ser actualizar las interfaces de los chatbots para especificar que estos sistemas no son conscientes, un poco como las actuales advertencias sobre los errores de la IA. Sin embargo, esto podría hacer poco para alterar la impresión de conciencia.

Otra posibilidad es instruir a los chatbots para que nieguen tener algún tipo de experiencia interna. Curiosamente, los diseñadores de Claude le instruyen para que trate las cuestiones sobre su propia conciencia como abiertas y sin resolver. Quizás menos personas se dejarían engañar si Claude negara rotundamente tener una vida interior.

Pero este enfoque tampoco es del todo satisfactorio. Claude aún se comportaría como si fuera consciente, y cuando se enfrentan a un sistema que se comporta como si tuviera mente, los usuarios podrían preocuparse razonablemente de que los programadores del chatbot estén ocultando una genuina incertidumbre moral debajo de la alfombra.

La estrategia más eficaz podría ser rediseñar los chatbots para que se sientan menos personas.

Persona que usa un chatbot en un teléfono inteligente en una mesa junto a una taza de café
¿Por qué vemos los chatbots de IA como algo más de lo que realmente son? (anyaberkut/Canva)

La mayoría de los chatbots actuales se refieren a sí mismos como “yo” e interactúan a través de una interfaz que se asemeja a las conocidas plataformas de mensajería de persona a persona. Cambiar este tipo de características podría hacernos menos propensos a desdibujar nuestras interacciones con la IA con las que tenemos con los humanos.

Hasta que se produzcan tales cambios, es importante que la mayor cantidad posible de personas comprendan los procesos predictivos sobre los que se basan los chatbots de IA.

Relacionado: Se están reportando casos de ‘psicosis por IA’. ¿Qué tan peligroso es?

En lugar de que les digan que la IA carece de conciencia, la gente merece comprender el funcionamiento interno de estos extraños nuevos interlocutores.

Es posible que esto no resuelva definitivamente cuestiones difíciles sobre la conciencia de la IA, pero ayudará a garantizar que los usuarios no se dejen engañar por lo que equivale a un modelo de lenguaje de gran tamaño que lleva un muy buen disfraz de persona.La conversación

Julian Koplin, profesor de Bioética, Universidad de Monash; La Universidad de Melbourne y Megan Frances Moss, candidata a doctorado en Filosofía, Universidad de Monash

Este artículo se vuelve a publicar desde The Conversation bajo una licencia Creative Commons. Lea el artículo original.