Nunca podremos saber si la IA se vuelve consciente, según un filósofo

El avance en inteligencia artificial y la creciente inversión han encendido el debate sobre la posibilidad de autopercepción en máquinas, aunque hasta ahora la ciencia carece de pruebas y criterios objetivos para determinar la presencia de conciencia en sistemas automatizados

Guardar

El filósofo Tom McClelland de la Universidad de Cambridge advierte acerca del uso ambiguo de la expresión “conciencia artificial” en sectores tecnológicos, lo cual, según publicó la revista Mind and Language, podría utilizarse para captar la atención de medios e inversionistas e influir en la asignación de recursos en la investigación científica. Esta situación, de acuerdo con Mind and Language, conduce a la distorsión de las prioridades académicas y sociales, al desviar la atención hacia cuestiones especulativas sobre la posible autopercepción de sistemas automatizados, en detrimento de problemas éticamente relevantes vinculados a seres cuya capacidad de experimentar sufrimiento se encuentra documentada por la ciencia. Este fenómeno se produce en un contexto de expansión en la inversión y desarrollo de inteligencia artificial, especialmente afectados por el interés regulatorio y el avance de modelos que prometen igualar o superar habilidades cognitivas humanas.

Según reportó Mind and Language, el debate sobre la posibilidad de conciencia en sistemas artificiales surge cuando organizaciones académicas y empresariales consideran si corresponde atribuir derechos o deberes éticos a máquinas evolucionadas. La publicación destaca que el análisis de McClelland se da en un periodo de gran dinamismo tanto regulatorio como tecnológico, en el que la llamada Inteligencia Artificial General se encuentra bajo observación especial a causa de sus potenciales implicancias para el futuro social y legal.

De acuerdo con la revista, McClelland examina las principales perspectivas filosóficas involucradas. Una de ellas sostiene la hipótesis de que la imitación de funciones cognitivas humanas —aunque se base en caminos diferentes a los biológicos— podría implicar la emergencia de conciencia en sistemas no vivos. La postura contraria limita la presencia de conciencia únicamente a organismos biológicos, interpretando que lo producido por dispositivos electrónicos constituye solo una simulación funcional sin experiencia subjetiva auténtica. Mind and Language aclara que estas posturas carecen de evidencia observable directa y de métodos consensuados para confirmar sus supuestos.

En su análisis, McClelland observa que la percepción social respecto de la conciencia en los animales difiere significativamente de la atribuida a las máquinas. Según Mind and Language, el público tiende a aceptar la existencia de experiencias internas en animales domésticos gracias a patrones evolutivos de empatía, pero encuentra más difícil asignarlas a sistemas inteligentes, debido a la ausencia de criterios equiparables y pruebas empíricas en el caso de la inteligencia artificial.

El texto difundido por Mind and Language subraya la distinción entre conciencia y sintiencia. McClelland precisa que la autopercepción —la capacidad de ser consciente de uno mismo— no basta para fundamentar derechos morales; en cambio, considera indispensable la sintiencia, definida como la capacidad de sentir placer, dolor u otras experiencias subjetivas. Tal distinción adquiere relevancia cuando se discuten ejemplos como los automóviles autónomos. Estos pueden responder a estímulos ambientales, pero no existen argumentos válidos para suponer que puedan experimentar sensaciones internas, por lo que, según reporta la revista, carece de fundamento ético referirse a su bienestar o sufrimiento.

Mind and Language recoge también que la ambigüedad conceptual en torno a la “conciencia artificial” favorece intereses promocionales en el ámbito tecnológico. De acuerdo con la revisión de McClelland, la atribución errónea de conciencia a objetos inanimados —como una simple tostadora— puede provocar consecuencias prácticas negativas, ya que canaliza recursos sociales y científicos hacia debates infundados en lugar de enfocar los esfuerzos en temas donde la sintiencia y el sufrimiento están probados y requieren atención ética concreta.

Durante su investigación, McClelland argumenta que, ante la falta de criterios claros y de herramientas para detectar conciencia en sistemas artificiales, conviene mantener una posición agnóstica en el debate público y regulatorio. Tal como indica Mind and Language, el filósofo sostiene que cualquier afirmación sobre la presencia de mente o conciencia en la inteligencia artificial sigue situada, por el momento, en la esfera de la especulación y la conjetura, más que en el terreno de los descubrimientos empíricos.

El medio especializado remarca que ni la ciencia ni la filosofía han logrado diseñar definiciones precisas ni instrumentos que puedan determinar la existencia de conciencia en maquinaria artificial. Esta carencia mantiene sin resolver tanto el debate filosófico como las implicancias legales y sociales, ya que resulta imposible decidir normativamente si corresponde asignar derechos o deberes a la inteligencia artificial en tanto no se disponga de criterios empíricos sólidos.

Según el análisis divulgado por Mind and Language, McClelland sugiere posponer cualquier iniciativa normativa referida a la condición moral o jurídica de la inteligencia artificial hasta que la ciencia logre avances significativos en la detección fiable de conciencia y sintiencia. La permanencia de un vacío metodológico implica que el debate sobre la mente artificial permanecerá por ahora en la especulación, sin evidencia suficiente que respalde posiciones concluyentes.