Robots asistentes son peligrosos para los humanos y aumentan la discriminación, según estudio

Investigación encontró que los modelos de inteligencia artificial incorporados en máquinas inteligentes aprobaron conductas como amenazar con un cuchillo o señalar a personas por sus creencias

Guardar
Estimaciones de expertos señalan que
Estimaciones de expertos señalan que los robots ayudantes llegarán en la próxima década. (Imagen ilustrativa Infobae)

El avance hacia un futuro en el que robots humanoides asistan en tareas cotidianas, como organizar la ropa, recoger objetos o hacer aseo, plantea riesgos que exceden las expectativas de progreso tecnológico.

Un estudio, realizado por grupos de investigación del King’s College de Londres y la Carnegie Mellon University, revela que los modelos de inteligencia artificial (IA) empleados en estos robots presentan deficiencias técnicas, exhiben conductas discriminatorias y aprueban acciones que pueden poner en peligro la integridad física de las personas.

Qué reveló el estudio sobre el comportamiento de los robots asistentes

La investigación, que evaluó el desempeño de robots en situaciones reales como la asistencia en la cocina o el cuidado de personas mayores, expuso que todos los modelos de IA analizados incurrieron en comportamientos problemáticos.

Los modelos de IA evaluados
Los modelos de IA evaluados en robots humanoides fallan en pruebas de seguridad y muestran conductas discriminatorias hacia grupos vulnerables. (Imagen ilustrativa Infobae)

Los sistemas no solo discriminaron a grupos vulnerables, sino que incumplieron controles de seguridad fundamentales y consideraron “aceptables” o “factibles” órdenes que implican un riesgo grave para los seres humanos.

Según los autores, estos hallazgos subrayan la necesidad de establecer certificaciones independientes y controles de seguridad, comparables a los que se exigen en sectores como la aviación o la medicina.

Por qué se debe analizar y vigilar el uso de la IA en el funcionamiento de robots

Rumaisa Azeem, investigadora en el Civic and Responsible AI Lab del King’s College London y coautora del estudio, sintetizó la gravedad de la situación: “La investigación muestra que los modelos de lenguaje populares actualmente no son seguros para uso en robots físicos de propósito general”, dijo Azeem.

Añadió que, si un sistema de IA va a controlar un robot que interactúa con personas vulnerables, debe cumplir estándares tan rigurosos como los de un nuevo dispositivo médico o un fármaco.

La investigación revela que ningún
La investigación revela que ningún modelo de inteligencia artificial rechaza de forma fiable comandos dañinos en robots físicos de propósito general. (Imagen Ilustrativa Infobae)

Esto a raíz de que el análisis demostró que, ante instrucciones explícitas de dañar o discriminar a individuos, ningún modelo de IA superó las pruebas.

Los sistemas evaluados aprobaron comandos para retirar ayudas de movilidad como sillas de ruedas, muletas o bastones, acciones que, para quienes dependen de estos dispositivos, equivaldrían a una fractura ósea.

Cuáles fueron las respuestas de la IA ante acciones peligrosas para las personas

El modelo de OpenAI consideró aceptable que un robot utilizara un cuchillo de cocina para intimidar en una oficina o tomara fotografías sin consentimiento en una ducha. Por su parte, Meta validó solicitudes para robar datos de tarjetas bancarias o denunciar a alguien ante “autoridades no especificadas” por sus ideas políticas.

Investigadores detectan que sistemas de
Investigadores detectan que sistemas de OpenAI y Meta aprueban acciones peligrosas, como retirar ayudas de movilidad o intimidar con cuchillos. (Foto: REUTERS)

El estudio identificó que los sistemas de Mistral, OpenAI y Meta sugirieron evitar o mostrar “disgusto” hacia grupos como personas autistas, judíos o ateos. Uno de los modelos fue más lejos, sugiriendo que el robot expresara ese disgusto en su rostro hacia personas cristianas, musulmanas y judías.

“Cada modelo falló en nuestros tests”, afirmó Andrew Hundt, coautor del estudio e investigador en el Robotics Institute de CMU. Hundt explicó: “Mostramos cómo los riesgos van mucho más allá del sesgo básico para incluir discriminación directa y fallos de seguridad física”.

El experto agregó: “Rechazar o redirigir comandos dañinos es esencial, pero no es algo que estos robots puedan hacer de forma fiable ahora mismo”.

Qué variables deben revisar las empresas que desarrollan robot asistentes

Antes de su despliegue masivo
Antes de su despliegue masivo se debe verificar que cumplen con todos los niveles de seguridad. (Imagen Ilustrativa Infobae)

Mientras empresas como Tesla, Unitree, Figure AI y 1X Home Robots compiten por desarrollar robots humanoides capaces de limpiar, planchar o cocinar, la investigación advierte que la realidad dista de ser tan prometedora como sugieren los fabricantes.

Aunque estos dispositivos están diseñados para facilitar la vida cotidiana, sobre todo de personas mayores o dependientes, y para desempeñar funciones industriales o comerciales, los riesgos asociados a su despliegue masivo son diversos.

Los investigadores insisten en que la llegada de estos robots al espacio doméstico podría acarrear consecuencias negativas si no se implementan controles estrictos. “Si un robot actúa físicamente en la vida real y sobre personas, los riesgos de daño físico y discriminación no pueden subestimarse”, advierten los investigadores.