
El avance hacia un futuro en el que robots humanoides asistan en tareas cotidianas, como organizar la ropa, recoger objetos o hacer aseo, plantea riesgos que exceden las expectativas de progreso tecnológico.
Un estudio, realizado por grupos de investigación del King’s College de Londres y la Carnegie Mellon University, revela que los modelos de inteligencia artificial (IA) empleados en estos robots presentan deficiencias técnicas, exhiben conductas discriminatorias y aprueban acciones que pueden poner en peligro la integridad física de las personas.
Qué reveló el estudio sobre el comportamiento de los robots asistentes
La investigación, que evaluó el desempeño de robots en situaciones reales como la asistencia en la cocina o el cuidado de personas mayores, expuso que todos los modelos de IA analizados incurrieron en comportamientos problemáticos.

Los sistemas no solo discriminaron a grupos vulnerables, sino que incumplieron controles de seguridad fundamentales y consideraron “aceptables” o “factibles” órdenes que implican un riesgo grave para los seres humanos.
Según los autores, estos hallazgos subrayan la necesidad de establecer certificaciones independientes y controles de seguridad, comparables a los que se exigen en sectores como la aviación o la medicina.
Por qué se debe analizar y vigilar el uso de la IA en el funcionamiento de robots
Rumaisa Azeem, investigadora en el Civic and Responsible AI Lab del King’s College London y coautora del estudio, sintetizó la gravedad de la situación: “La investigación muestra que los modelos de lenguaje populares actualmente no son seguros para uso en robots físicos de propósito general”, dijo Azeem.
Añadió que, si un sistema de IA va a controlar un robot que interactúa con personas vulnerables, debe cumplir estándares tan rigurosos como los de un nuevo dispositivo médico o un fármaco.

Esto a raíz de que el análisis demostró que, ante instrucciones explícitas de dañar o discriminar a individuos, ningún modelo de IA superó las pruebas.
Los sistemas evaluados aprobaron comandos para retirar ayudas de movilidad como sillas de ruedas, muletas o bastones, acciones que, para quienes dependen de estos dispositivos, equivaldrían a una fractura ósea.
Cuáles fueron las respuestas de la IA ante acciones peligrosas para las personas
El modelo de OpenAI consideró aceptable que un robot utilizara un cuchillo de cocina para intimidar en una oficina o tomara fotografías sin consentimiento en una ducha. Por su parte, Meta validó solicitudes para robar datos de tarjetas bancarias o denunciar a alguien ante “autoridades no especificadas” por sus ideas políticas.

El estudio identificó que los sistemas de Mistral, OpenAI y Meta sugirieron evitar o mostrar “disgusto” hacia grupos como personas autistas, judíos o ateos. Uno de los modelos fue más lejos, sugiriendo que el robot expresara ese disgusto en su rostro hacia personas cristianas, musulmanas y judías.
“Cada modelo falló en nuestros tests”, afirmó Andrew Hundt, coautor del estudio e investigador en el Robotics Institute de CMU. Hundt explicó: “Mostramos cómo los riesgos van mucho más allá del sesgo básico para incluir discriminación directa y fallos de seguridad física”.
El experto agregó: “Rechazar o redirigir comandos dañinos es esencial, pero no es algo que estos robots puedan hacer de forma fiable ahora mismo”.
Qué variables deben revisar las empresas que desarrollan robot asistentes

Mientras empresas como Tesla, Unitree, Figure AI y 1X Home Robots compiten por desarrollar robots humanoides capaces de limpiar, planchar o cocinar, la investigación advierte que la realidad dista de ser tan prometedora como sugieren los fabricantes.
Aunque estos dispositivos están diseñados para facilitar la vida cotidiana, sobre todo de personas mayores o dependientes, y para desempeñar funciones industriales o comerciales, los riesgos asociados a su despliegue masivo son diversos.
Los investigadores insisten en que la llegada de estos robots al espacio doméstico podría acarrear consecuencias negativas si no se implementan controles estrictos. “Si un robot actúa físicamente en la vida real y sobre personas, los riesgos de daño físico y discriminación no pueden subestimarse”, advierten los investigadores.
Últimas Noticias
Glosario de tecnología: qué significa Amplificador de señal
La tecnología en la vida diaria ha transformado significativamente la forma en que las personas interactúan, trabajan y se entretienen

Android prepara un portapapeles universal para copiar y pegar entre celular y computadora
En una primera etapa la función estaría limitada únicamente a texto, a diferencia del ecosistema Apple donde también se pueden transferir archivos e imágenes

Google niega que Gmail entrene a Gemini con correos privados
La compañía enfatiza que los datos procesados bajo las Funciones Inteligentes se destinan únicamente a personalizar la experiencia de servicios

Gemini 3 impulsó a Alphabet a máximos históricos en bolsa y refuerza su liderazgo en inteligencia artificial
La nueva versión del modelo de inteligencia artificial de Alphabet ha elevado el valor de sus acciones y consolidado a la compañía como referente del sector, superando a competidores y generando expectativas entre inversores y analistas
Expertos alertan una posible burbuja en megaproyectos de IA
La actual efervescencia de la inteligencia artificial, a diferencia de la burbuja puntocom, está impulsada en gran parte por compañías multimillonarias con bases financieras sólidas




