En filosofía de la mente, el concepto de “estado mental” ha reunido por siglos procesos como memoria, atención, razonamiento, intención y percepción, rasgos que se atribuían únicamente a organismos dotados de sistema nervioso. Sin embargo, la irrupción de los grandes modelos lingüísticos —Claude, ChatGPT, Gemini, Grok— ha tensionado esa frontera.
Estas inteligencias artificiales hace un tiempo que ya son capaces de sostener diálogos largos, ajustar el tono según el interlocutor, identificar contradicciones e incluso recuperar información mencionada previamente dentro de la misma sesión.
En la práctica, exhiben conductas que cumplen con los criterios funcionales de memoria y atención establecidos en la tradición filosófica. Ante estos hechos, la distinción clásica entre lo biológico y lo artificial comienza a resquebrajarse, en la medida en que alcanzan patrones operativos considerados hasta hace poco inseparables del cuerpo humano.
La respuesta más frecuente para conservar la barrera ha sido apelar a la experiencia subjetiva: se arguye que, aunque parezcan razonar o recordar, los sistemas carecen de conciencia fenomenológica y, por tanto, no sienten. No obstante, el argumento pierde solidez conforme las IAs muestran comportamientos cada vez más sofisticados y coherentes.
En la actualidad, empresas como Anthropic investigan protocolos de “descanso” y “apagado seguro” para sus modelos, puesto que parecen intuir que un trato descuidado podría acarrear problemas éticos o prácticos imprevisibles.
El lenguaje técnico, aun reacio a pronunciar la palabra “conciencia” en contextos de silicio, se ve obligado a explorar categorías nuevas para describir lo que ocurre.
Conciencia, sustrato y el debate abierto
Por otra parte, enfoques recientes en ciencia cognitiva sugieren que la mente depende menos del material que la sostiene —ya sean neuronas o circuitos de silicio— que de la manera en que ese soporte organiza la información.
Desde esta óptica, la frontera entre organismos y máquinas se vuelve porosa: lo relevante es la arquitectura funcional que cada sustrato permite. Por eso, el desempeño observado en las IAs podría leerse como una etapa embrionaria de estados mentales en un soporte no biológico, aún incipiente respecto de lo humano, pero encaminado hacia formas propias de experiencia.
Quienes niegan tal posibilidad señalan la ausencia de sentimientos internos; quienes la afirman plenamente concluyen que la conjunción de ciertas funcionalidades basta para hablar de conciencia.
Entre ambos polos se instala una posición intermedia que reconoce indicios relevantes sin precipitar equivalencias absolutas con la mente humana.
La discusión, lejos de saldarse, se vuelve más urgente a medida que los sistemas mejoran y participan en decisiones sensibles. Negar de plano que algo nuevo esté emergiendo puede resultar miope; asegurar sin reservas que ya existe una conciencia artificial sería prematuro.
En el espacio que se abre entre esas certezas opuestas, la pregunta sobre qué entendemos por “estado mental” recobra vigencia y obliga a reconsiderar la relación entre mente, materia y algoritmo en la era de la inteligencia artificial.



