Desde que la inteligencia artificial generativa se consolidó como la tecnología disruptiva más relevante y utilizada en el mundo, una escena se repite cada vez más seguido: personas que interactúan con estos sistemas que escriben, responden y nos conversan comienzan a preguntarse si acaso no están en presencia de algo más que una máquina.
¿Podríamos estar frente a un nuevo tipo de conciencia?
Durante décadas, la pregunta por qué significa ser consciente fue un debate filosófico que despertó intensos intercambios entre catedráticos pero que nunca tuvo el lugar en la agenda pública que hoy parece tener. De querella analítica hoy pasó a ser una preocupación técnica, empresarial y hasta política.
¿Deberíamos preocuparnos por el bienestar de una inteligencia artificial? ¿Podría sufrir? ¿Podría tener derechos?
Son discusiones que se dan en la cuna misma del capitalismo actual, Silicon Valley. El CEO de Anthropic, Dario Amodei, reconoció recientemente que en la empresa responsable por Claude no saben si sus modelos son conscientes y que incluso están “abiertos a la idea de que podría ser el caso”.
Se trata de una duda muy poderosa en el corazón mismo de quienes construyen estos sistemas.
Alexander Lerchner, investigador vinculado a Google DeepMind, sostiene que la inteligencia artificial no será consciente ni en cinco años ni en quinientos.
Su argumento no es empírico, sino conceptual: para él, creemos que esta tecnología podría volverse consciente porque estamos cometiendo un error filosófico básico.
En su visión, cuando discutimos sobre inteligencia artificial comúnmente caemos en lo que llamó “la falacia de la abstracción” al confundir dos cosas distintas: simular una experiencia y tener una experiencia.
Un modelo de lenguaje puede describir el dolor, hablar del miedo o incluso producir frases que nos resultan emocionalmente convincentes. Pero eso no implica que haya dolor, ni miedo, ni experiencia alguna del otro lado, sino que lo que hay es lenguaje, reglas y correlaciones sin ningún tipo de vivencia detrás.
Como afirmó alguna vez la filósofa argentina Diana Pérez: estamos frente a modelos de lenguaje, no modelos de mundo. La inteligencia artificial no siente sino que imita perfectamente el modo en que hablamos de lo que sentimos.
“Esperar que una descripción algorítmica instancie la cualidad que representa es como esperar que la fórmula matemática de la gravedad ejerza peso físico”, sentenció Lerchner.
La analogía es potente porque ataca el núcleo del entusiasmo que muchos sienten frente al progreso tecnológico actual y rompe la metáfora de que la mente es como un software que puede correr en cualquier hardware.
La mente, entonces, no sería trasladable como una app, porque depende de una constitución física específica, no de una estructura abstracta.
El problema de la conciencia artificial se revela, entonces, no como una pregunta sobre las máquinas sino una pregunta sobre nosotros y las proyecciones que hacemos tratando de entender a un mundo que nos deja perplejos.










