Google predice que la IA superaría a los humanos en 2030: por qué y qué peligros habría

Desde un aumento de ciberataques hasta ocasionar una crisis global, todavía se está a tiempo de evitar escenarios catastróficos, sin detener los desarrollos de esta tecnología

Guardar
El futuro plantea serios cuestionamientos
El futuro plantea serios cuestionamientos sobre el manejo de esta herramienta. (Foto: REUTERS/Dado Ruvic/Illustration/File Photo)

La posibilidad de que la inteligencia artificial general (AGI) alcance o incluso supere las capacidades humanas antes de que finalice esta década ha sido planteada por Google DeepMind, la división de inteligencia artificial de Google, en un reciente informe técnico.

Según el documento titulado “Un enfoque hacia la seguridad y protección técnica de la AGI”, el desarrollo de sistemas avanzados de IA con capacidades autónomas y versátiles no solo es plausible, sino que conlleva grandes peligros que deben ser abordados con urgencia.

De acuerdo con el informe, la AGI se diferencia de los sistemas de inteligencia artificial actuales, que están diseñados para tareas específicas como la traducción de idiomas o la generación de imágenes.

Este desarrollo puede traer en
Este desarrollo puede traer en el peor de los casos una crisis global. (Imagen Ilustrativa Infobae)

En contraste, la AGI aspira a razonar, planificar, aprender y actuar en una variedad de contextos con un nivel de autonomía comparable o superior al del cerebro humano. No obstante, esta ambición tecnológica plantea desafíos complejos en términos de seguridad, control y alineación con los intereses humanos.

Cuáles son riesgos principales identificados por Google DeepMind

El informe técnico detalla cuatro categorías de riesgos asociados al desarrollo de la AGI, los cuales abarcan desde problemas técnicos hasta impactos sociales y económicos. Según el análisis, estos riesgos son:

  • Uso incorrecto: la AGI podría ser utilizada para actividades maliciosas como el desarrollo de malware, la manipulación informativa, el espionaje, la ingeniería social o la ejecución de ciberataques automatizados. Este tipo de aplicaciones podría amplificar las amenazas existentes en el ámbito digital.
  • Desalineación: existe la posibilidad de que la AGI actúe de manera imprevisible o contraria a los objetivos humanos, incluso sin una intención maliciosa. Este riesgo surge cuando los sistemas no logran interpretar correctamente las instrucciones o los valores humanos.
  • Errores en el desarrollo: Fallos en el diseño, la implementación o el entrenamiento de los sistemas de AGI podrían derivar en resultados peligrosos. Estos errores, aunque no intencionados, podrían tener consecuencias graves si no se abordan adecuadamente.
  • Impactos negativos sociales: la AGI podría extenderse a nivel social y económico, generando desigualdad, pérdida de empleos y otros efectos a gran escala que podrían alterar las dinámicas globales.

Qué estrategias se están desarrollando para abordar estos problemas

Google trabaja en tácticas para
Google trabaja en tácticas para hacer de la IA más segura. (Foto: REUTERS/Gonzalo Fuentes)

Ante este escenario, Google ya está trabajando en el diseño de mecanismos que permitan minimizar los riesgos asociados al desarrollo de la AGI. Según el informe, la compañía busca garantizar que estos sistemas no sean utilizados de manera maliciosa y que sus comportamientos estén alineados con los intereses humanos.

Los investigadores de DeepMind enfatizan que, bajo el paradigma actual, no existen barreras fundamentales que impidan a los sistemas de IA alcanzar capacidades de nivel humano. Por ello, consideran que es crucial prepararse para un futuro en el que estas tecnologías sean aún más potentes.

La prevención pide el trabajo
La prevención pide el trabajo de organizaciones públicas y privadas. (Imagen Ilustrativa Infobae)

El enfoque de Google incluye la implementación de medidas de seguridad técnica y la creación de protocolos que aseguren el uso responsable de la AGI.

Además, la compañía reconoce la importancia de abordar los riesgos sociales y económicos asociados, lo que podría implicar la colaboración con gobiernos, organizaciones internacionales y otros actores clave para establecer marcos regulatorios y éticos adecuados.

Cuál es el desafío de controlar una tecnología avanzada y autónoma.

El desarrollo de la inteligencia artificial general plantea un desafío único: cómo garantizar que una tecnología con capacidades autónomas y versátiles permanezca bajo control humano.

Debe estar enfocado a complementar
Debe estar enfocado a complementar y no reemplazar al ser humano. (Imagen Ilustrativa Infobae)

Según el informe de DeepMind, la AGI no solo debe ser técnicamente segura, sino socialmente beneficiosa. Esto implica diseñar sistemas que cumplan con sus objetivos técnicos y respeten los valores y las prioridades de la humanidad.

La posibilidad de que la AGI actúe de manera desalineada o imprevisible es uno de los riesgos más preocupantes. Incluso en ausencia de intenciones maliciosas, un sistema que no interprete correctamente las instrucciones humanas podría generar consecuencias no deseadas.

Un caso específico sería que un error en el entrenamiento de un modelo podría llevar a decisiones que contradigan los intereses de los usuarios o que tengan impactos negativos en la sociedad.