
La posibilidad de que la inteligencia artificial general (AGI) alcance o incluso supere las capacidades humanas antes de que finalice esta década ha sido planteada por Google DeepMind, la división de inteligencia artificial de Google, en un reciente informe técnico.
Según el documento titulado “Un enfoque hacia la seguridad y protección técnica de la AGI”, el desarrollo de sistemas avanzados de IA con capacidades autónomas y versátiles no solo es plausible, sino que conlleva grandes peligros que deben ser abordados con urgencia.
De acuerdo con el informe, la AGI se diferencia de los sistemas de inteligencia artificial actuales, que están diseñados para tareas específicas como la traducción de idiomas o la generación de imágenes.

En contraste, la AGI aspira a razonar, planificar, aprender y actuar en una variedad de contextos con un nivel de autonomía comparable o superior al del cerebro humano. No obstante, esta ambición tecnológica plantea desafíos complejos en términos de seguridad, control y alineación con los intereses humanos.
Cuáles son riesgos principales identificados por Google DeepMind
El informe técnico detalla cuatro categorías de riesgos asociados al desarrollo de la AGI, los cuales abarcan desde problemas técnicos hasta impactos sociales y económicos. Según el análisis, estos riesgos son:
- Uso incorrecto: la AGI podría ser utilizada para actividades maliciosas como el desarrollo de malware, la manipulación informativa, el espionaje, la ingeniería social o la ejecución de ciberataques automatizados. Este tipo de aplicaciones podría amplificar las amenazas existentes en el ámbito digital.
- Desalineación: existe la posibilidad de que la AGI actúe de manera imprevisible o contraria a los objetivos humanos, incluso sin una intención maliciosa. Este riesgo surge cuando los sistemas no logran interpretar correctamente las instrucciones o los valores humanos.
- Errores en el desarrollo: Fallos en el diseño, la implementación o el entrenamiento de los sistemas de AGI podrían derivar en resultados peligrosos. Estos errores, aunque no intencionados, podrían tener consecuencias graves si no se abordan adecuadamente.
- Impactos negativos sociales: la AGI podría extenderse a nivel social y económico, generando desigualdad, pérdida de empleos y otros efectos a gran escala que podrían alterar las dinámicas globales.
Qué estrategias se están desarrollando para abordar estos problemas

Ante este escenario, Google ya está trabajando en el diseño de mecanismos que permitan minimizar los riesgos asociados al desarrollo de la AGI. Según el informe, la compañía busca garantizar que estos sistemas no sean utilizados de manera maliciosa y que sus comportamientos estén alineados con los intereses humanos.
Los investigadores de DeepMind enfatizan que, bajo el paradigma actual, no existen barreras fundamentales que impidan a los sistemas de IA alcanzar capacidades de nivel humano. Por ello, consideran que es crucial prepararse para un futuro en el que estas tecnologías sean aún más potentes.

El enfoque de Google incluye la implementación de medidas de seguridad técnica y la creación de protocolos que aseguren el uso responsable de la AGI.
Además, la compañía reconoce la importancia de abordar los riesgos sociales y económicos asociados, lo que podría implicar la colaboración con gobiernos, organizaciones internacionales y otros actores clave para establecer marcos regulatorios y éticos adecuados.
Cuál es el desafío de controlar una tecnología avanzada y autónoma.
El desarrollo de la inteligencia artificial general plantea un desafío único: cómo garantizar que una tecnología con capacidades autónomas y versátiles permanezca bajo control humano.

Según el informe de DeepMind, la AGI no solo debe ser técnicamente segura, sino socialmente beneficiosa. Esto implica diseñar sistemas que cumplan con sus objetivos técnicos y respeten los valores y las prioridades de la humanidad.
La posibilidad de que la AGI actúe de manera desalineada o imprevisible es uno de los riesgos más preocupantes. Incluso en ausencia de intenciones maliciosas, un sistema que no interprete correctamente las instrucciones humanas podría generar consecuencias no deseadas.
Un caso específico sería que un error en el entrenamiento de un modelo podría llevar a decisiones que contradigan los intereses de los usuarios o que tengan impactos negativos en la sociedad.
ultimas
Descubre las profesiones que la inteligencia artificial no podrá reemplazar, según la predicción de Bill Gates
Para el cofundador de Microsoft, la programación seguirá requiriendo creatividad humana pese a los avances en IA

Cotizaciones de criptomonedas en tiempo real: sigue al minuto
Las monedas digitales han tenido comportamientos mixtos en las últimas horas

Inteligencia artificial en Japón promete revolucionar el cuidado de los árboles urbanos con precisos diagnósticos
El nuevo sistema Plant Doctor, de la Universidad de Waseda, combina técnicas de visión computacional para detectar y evaluar daños en vegetación urbana, marcando una era de avances en la gestión ambiental

Mercado de criptomonedas: cuál es el valor de ethereum
Ethereum es la moneda digital #2 más usada en el mundo

El precio de la criptomoneda bitcoin este 8 de abril
El bitcoin ha sentado las bases para el surgimiento de muchas de las monedas digitales existentes en el mercado y ha marcado un momento crucial para las soluciones de pago digital
