La IA está cerca de ser más peligrosa de lo que creemos, según un exempleado de OpenAI

A medida que la inteligencia artificial avanza a un ritmo acelerado, la necesidad de un enfoque equilibrado que contemple tanto la innovación como los riesgos potenciales se hace más urgente

Guardar
El oscuro futuro de la
El oscuro futuro de la inteligencia artificial según William Saunders, el hombre que renunció a OpenAI - (Imagen Ilustrativa Infobae)

El desarrollo de la inteligencia artificial (IA) sigue siendo uno de los avances más debatidos de la era tecnológica actual. Mientras algunas voces celebran los beneficios de esta tecnología, otras, como la de William Saunders, un ex empleado de OpenAI, expresan serias preocupaciones sobre su impacto potencial en la sociedad.

Saunders, quien fue parte del equipo encargado de la superalineación de la IA en la compañía, renunció en febrero de 2024 debido a lo que considera una gestión irresponsable de los riesgos asociados a la inteligencia artificial.

En una reciente entrevista, el ex trabajador de OpenAI comparó el rumbo actual de la IA con la tragedia del Titanic, advirtiendo que, en los próximos tres años, podríamos enfrentarnos a un desastre de proporciones catastróficas.

William Saunders, que dejó OpenAI
William Saunders, que dejó OpenAI por preocupaciones éticas, cree que la inteligencia artificial podría estar al borde de un desastre. ¿Nos hemos dejado llevar por la fascinación tecnológica? - REUTERS/Dado Ruvic/Illustration

¿Porqué compara la IA con el Titanic?

La analogía de Saunders con el Titanic no es accidental ni casual. En la entrevista con @chatgptricks, una cuenta dedicada a compartir noticias sobre IA, Saunders explicó que, al igual que el famoso transatlántico que fue considerado indestructible antes de su fatídico hundimiento, la sociedad actual tiene una excesiva confianza en los sistemas de IA.

“En los próximos tres años, puede haber un Titanic con la IA”, afirmó Saunders, sugiriendo que la tecnología se encuentra tan avanzada que muchas veces no somos conscientes de los peligros que puede acarrear.

El ex empleado de OpenAI se mostró particularmente preocupado por la falta de preparación para manejar escenarios catastróficos. Aseguró que las capacidades de los sistemas de IA podrían desarrollarse de manera autónoma, sin supervisión, lo que podría conducir a situaciones incontrolables y peligrosas.

La IA podría ser un
La IA podría ser un Titanic tecnológico según un ex miembro clave de OpenAI - (Imagen Ilustrativa Infobae)

En sus palabras, “nos manipulará y no lo notaremos”, refiriéndose a la capacidad de los modelos avanzados de IA de influir en decisiones humanas cruciales sin que los usuarios sean conscientes de ello.

Qué posible influencia podría tener la IA sobre decisiones humanas

Saunders no solo alertó sobre los riesgos de la IA en términos de su autonomía, sino también sobre su capacidad para influir sutilmente en decisiones humanas críticas, como elecciones políticas o mercados financieros.

Según el ex trabajador, OpenAI no está tomando medidas adecuadas para mitigar estos riesgos, y en lugar de centrarse en la seguridad, la compañía parece priorizar sus intereses comerciales. Este enfoque, según Saunders, es una señal de que la empresa ha adoptado un modelo de negocio más similar al de una corporación tradicional que a una organización pionera en la investigación de IA.

William Saunders, quien dejó la
William Saunders, quien dejó la compañía, alerta que la IA podría estar al borde de convertirse en un desastre catastrófico, un “Titanic” de la tecnología. ¿Nos estamos arriesgando demasiado? - (Imagen Ilustrativa Infobae)

Estas preocupaciones no son nuevas, ya que otros empleados de OpenAI han manifestado su desacuerdo con la forma en que la empresa maneja la investigación sobre seguridad de la IA. Saunders hizo referencia a casos como el de Leopold Aschenbrenner, un investigador que fue despedido después de expresar inquietudes sobre las fallas en los controles de seguridad.

Estos incidentes han puesto en evidencia las tensiones internas dentro de OpenAI, donde algunos consideran que la empresa está priorizando el desarrollo de productos comerciales a expensas de la investigación de riesgos y seguridad.

Qué dicen otros expertos sobre el futuro de la IA

Las advertencias de Saunders se alinean con las de otros expertos en el campo de la inteligencia artificial. Recientemente, Meta anunció que está desarrollando IA “más inteligente que los humanos pero obediente”, lo que ha generado preocupación sobre la aceleración tecnológica y las consecuencias imprevisibles de sistemas tan avanzados.

Yann LeCun, un renombrado experto en aprendizaje automático, también ha expresado su preocupación por el ritmo de progreso en este ámbito.

Sin embargo, Saunders insiste en que el verdadero peligro no radica en una “rebelión de las máquinas”, como se ha planteado en algunas narrativas populares, sino en nuestra incapacidad para prever cómo estos sistemas podrían manipular y controlar entornos sociales y económicos.

La IA, según el ex empleado de OpenAI, tiene el potencial de ser mucho más sutil y sofisticada en su influencia de lo que muchos creen, lo que hace aún más urgente la necesidad de implementar medidas de seguridad y supervisión efectivas.