Guardar
El ejecutivo de Microsoft AI
El ejecutivo de Microsoft AI defiende una IA orientada al beneficio social, marcando distancia respecto a desarrollos que puedan sustituir las relaciones humanas auténticas (REUTERS/Denis Balibouse)

Mustafa Suleyman, director ejecutivo de Microsoft AI, expresó con contundencia la postura de la compañía frente a los desarrollos más controvertidos en inteligencia artificial: Microsoft nunca fabricará robots sexuales ni sistemas de IA para experiencias sexualizadas o de coqueteo.

Esta declaración, realizada a MIT Technology Review, establece límites precisos en un momento en que la industria explora la humanización de los chatbots.

Mientras otras compañías tecnológicas experimentan con IA de corte adulto, como OpenAI y su interés en interacciones para adultos en ChatGPT, o Grok —el chatbot desarrollado por Elon Musk— que apuesta por propuestas “coquetas”, Microsoft elige un enfoque conservador.

Suleyman dejó claro que, aunque existe un mercado para chatbots con personalidades atrevidas, la empresa decidió mantenerse alejada de dichos desarrollos. “Es una decisión que hemos tomado como empresa”, afirmó.

El rechazo de Microsoft a
El rechazo de Microsoft a desarrollar chatbots sexuales marca una posición ética clara frente a tendencias de otras compañías que exploran la integración de experiencias íntimas en inteligencia artificial, abriendo un debate sobre los límites responsables del sector (Imagen Ilustrativa Infobae)

Filosofía ética y actualizaciones de Copilot

Detrás de esta postura subyacen consideraciones éticas y filosóficas profundas. Suleyman alertó sobre los riesgos de crear sistemas capaces de simular conciencia o relaciones humanas estrechas, advirtiendo que ese tipo de IA puede inducir a confusión entre comportamiento digital y vida real.

El directivo, crítico de la denominada “inteligencia artificial aparentemente consciente” (SCAI, por sus siglas en inglés), exhortó a la industria a no seguir ese camino.

Según Suleyman, la IA debe servir a las personas, en lugar de buscar reemplazar la humanidad o fomentar vínculos emocionales engañosos. “Debemos construir IA para las personas; no para que sea una persona digital”, sostuvo.

Los SCAI son sistemas que
Los SCAI son sistemas que simulan comportamientos humanos complejos y expresiones emocionales, lo que puede dificultar que los usuarios distingan entre la tecnología y una presencia consciente real (Imagen Ilustrativa Infobae)

Sobre las novedades de Copilot, Suleyman detalló que las actualizaciones más recientes aumentan la utilidad y expresividad de la herramienta, pero sin traspasar los límites hacia la simulación de relaciones románticas o sexuales. Entre las mejoras destaca el chat grupal, que permite la interacción múltiple de usuarios con el chatbot y evita el aislamiento en conversaciones individuales.

Además, la opción Real Talk ajusta el grado de desafío en las respuestas de Copilot, favoreciendo el pensamiento crítico ante la IA. Copilot también incorporó mejoras de memoria, como el registro de objetivos a largo plazo o eventos futuros de los usuarios, y ahora incluye a Mico, un personaje animado que aporta mayor accesibilidad y atractivo, principalmente para jóvenes.

El directivo sostuvo que la meta de estas innovaciones es hacer de Copilot una herramienta más expresiva sin perder de vista el respeto por los límites éticos. Suleyman reconoció el valor que aporta una personalidad rica en los chatbots, aunque subrayó la importancia de definir con precisión sus atributos para impedir que los usuarios proyecten conciencia en la IA.

Según sus palabras: “El arte está en encontrar ese límite”. El compromiso de Microsoft es claro, solo se permite la experimentación dentro de márgenes considerados seguros y responsables.

La evolución de Copilot muestra
La evolución de Copilot muestra el esfuerzo de Microsoft por ofrecer funciones innovadoras y útiles, enfocadas en la colaboración práctica y sin invadir el terreno de las relaciones personales (REUTERS/Dado Ruvic/Illustration/File Photo)

Prioridad ética y bienestar de los usuarios

Suleyman advirtió sobre el potencial riesgo social de estas tecnologías, al señalar que pueden engañar a personas vulnerables, haciéndoles creer que interactúan con entes conscientes. Por eso, destacó la responsabilidad de los desarrolladores de detectar y corregir cualquier patrón dañino de uso de manera inmediata.

En línea con esta visión, rechazó la idea de conferir derechos o autonomía a la inteligencia artificial, argumentando que tal medida distraería de la protección esencial de los derechos humanos y animales.

La posición de Microsoft, tal como la recoge MIT Technology Review, sienta un precedente en la industria tecnológica: sitúa la seguridad, la ética y el bienestar de los usuarios por encima de la búsqueda de experiencias artificiales cada vez más humanas.

Suleyman reiteró que la misión sigue siendo la que guió a Microsoft durante 50 años: desarrollar tecnología que empodere, siempre priorizando los intereses de las personas.