Geoffrey Hinton, el padre de la IA, alerta sobre el auténtico riesgo de la inteligencia artificial

Geoffrey Hinton advierte que el verdadero peligro de la IA no está en robots armados, sino en su capacidad de influir en las personas a través del lenguaje

Guardar
Geoffrey Hinton reveló el verdadero
Geoffrey Hinton reveló el verdadero peligro de la IA. REUTERS/Mark Blinch/File Photo

La imagen de máquinas autónomas armadas y capaces de destruir a la humanidad es uno de los temores más extendidos cuando se habla de inteligencia artificial (IA). Sin embargo, Geoffrey Hinton, considerado uno de los fundadores de esta disciplina, asegura que el peligro es más silencioso y, a su juicio, más preocupante: el poder de manipular a las personas a través del lenguaje.

Hinton, de 77 años, ha dedicado gran parte de su carrera a la investigación en redes neuronales y aprendizaje profundo. Tras su salida de Google en 2023, se ha convertido en una de las voces más críticas respecto al futuro de la IA, realizando advertencias constantes sobre los riesgos que implica un desarrollo descontrolado.

En recientes declaraciones, Hinton descartó que el gran riesgo esté en un escenario de ciencia ficción con robots asesinos. Para él, el problema real es que los sistemas de IA ya poseen una capacidad de argumentación que supera la de los humanos en muchos contextos. “Si discutes con ellos sobre cualquier tema, probablemente termines perdiendo”, comentó.

Geoffrey Hinton, conocido como el
Geoffrey Hinton, conocido como el 'padre de la inteligencia artificial'. (AP)

Esto, según el especialista, se traduce en un poder de persuasión sin precedentes. No se trata de que las máquinas sean conscientes, sino de que su entrenamiento con enormes volúmenes de información les permite imitar patrones comunicativos que resultan altamente convincentes.

Regulación en duda

El investigador también volvió a insistir en la necesidad de regular esta tecnología antes de que su impacto social sea irreversible. Sin embargo, se mostró escéptico frente a los actuales intentos de los gobiernos, al considerar que son insuficientes y que la presión de las grandes compañías tecnológicas podría retrasar una legislación efectiva.

“Las empresas suelen priorizar sus propios intereses antes que la seguridad colectiva”, subrayó Hinton. Para él, este desequilibrio podría derivar en que las medidas de protección lleguen demasiado tarde.

Geoffrey Hinton señaló que la
Geoffrey Hinton señaló que la IA superará en debates a los humanos. (The Diary Of A CEO)

Cómo aprenden a persuadir las máquinas

Uno de los puntos que más destaca Hinton es que el poder de manipulación de los sistemas de IA no es un rasgo buscado de manera intencional, sino el resultado natural de su diseño. Al ser entrenados con millones de ejemplos de texto, su función principal es anticipar cuál será la siguiente palabra más probable en una conversación.

Ese simple mecanismo, aplicado a gran escala, ha generado modelos capaces de mantener diálogos coherentes, ofrecer explicaciones convincentes e incluso influir en la opinión de los usuarios. “Han adquirido habilidades manipuladoras casi por accidente, solo tratando de predecir lo que viene después”, explicó el científico.

Geoffrey Hinton advirtió que la
Geoffrey Hinton advirtió que la IA podría influir en las decisiones humanas. (Chloe Ellingson/The New York Times)

Un reto para la sociedad

El llamado de atención de Hinton coincide con el de otros expertos que advierten sobre el uso de la IA como herramienta para influir en elecciones, dirigir campañas publicitarias o difundir desinformación. La manipulación, más que la fuerza bruta, sería el verdadero riesgo a enfrentar en los próximos años.

En este escenario, la amenaza no proviene de máquinas con armas futuristas, sino de sistemas capaces de guiar el pensamiento humano con mensajes aparentemente inofensivos. Para Hinton, ese es el desafío más urgente: construir una sociedad preparada para identificar y resistir la influencia de una inteligencia artificial cada vez más sofisticada.