
Brand Smith, presidente de Microsoft, propuso cinco puntos que podrían mejorar el uso que se le da a las inteligencias artificiales en la actualidad, desde el punto de vista del usuario hasta los gobiernos.
De hecho, ese es un debate mundial porque se desconocen las consecuencias que podría tener su aplicación en el desarrollo de la comunidad.
La regulación de esta tecnología es uno de los puntos a tratar y diversas compañías y personalidades se han mostrado a favor de estas medidas como Sam Altman, fundador de OpenAI y creador de modelos como ChatGPT, GPT-3.5 y GPT-4.
Regulación de los gobiernos sobre la seguridad de la inteligencia artificial
Según Smith, es posible utilizar un marco de gestión de riesgos para las inteligencias artificiales en todos los gobiernos para mejorar la capacidad de respuestas ante posibles peligros que puedan surgir.

Microsoft asegura haber utilizado equipos de prevención de riesgos de ciberseguridad para identificar el potencial dañino que tiene una inteligencia artificial, por lo que está dispuesto a trabajar con otros líderes en la industria del desarrollo de inteligencia artificial para elevar los estándares de protección para el futuro.
Exigir “frenos de seguridad” para sistemas de IA que controlan infraestructura crítica
“Inventores han concluido que la mejor forma de avanzar es condensar el poder de la nueva tecnología dominándola”, indicó Smith durante su conferencia de prensa. En la que añadió que en el caso de la inteligencia artificial no hay diferencia. Para el ejecutivo, es necesario que estos avances puedan tener instalado un “sistema de seguridad efectivo”.
El objetivo de esta función es que las personas puedan utilizarlo en caso de que sea necesario alguna vez o que se necesite ralentizar o pausar del todo este avance aún si esto no significa que habrá un riesgo potencial.
Microsoft asegura que son los gobiernos los que deben establecer los estándares de seguridad que considere necesarios, establecer un método para detectar los riesgos a tiempo y tener la capacidad para activar el “freno” cuando se perciba algún riesgo.

Desarrollar un marco legal y regulatorio
Para el representante de Microsoft, se debe establecer una norma que se pueda aplicar a nuevos modelos generativos de inteligencia artificial para que las organizaciones que las fabrican tengan ciertas responsabilidades referentes a distintas etapas de desarrollo de la IA.
Una de las propuestas que incluye es la posibilidad que la inteligencia artificial pueda establecer etiquetas cuando genere archivos de fotos o videos, de modo que cualquier persona sepa que el contenido que está viendo fue creado por una IA, además de identificar la generación de contenido “deep fake” que podría ser utilizado para difundir información falsa.
Promover la transparencia y ofrecer acceso académico sin fines de lucro
La empresa también aseguró que se compromete a establecer principios de transparencia con respecto al uso de sus herramientas de inteligencia artificial, pues considera que es ideal un software de este tipo pueda serlo de forma responsable.
“Es fundamental ampliar el acceso a los recursos de IA para la investigación académica y la comunidad sin fines de lucro”, afirmó Smith, quien además aseguró que su compañía adoptó una guía ética desde el año 2018 y que facilitará el acceso transparente a la información cuando interactúen con un modelo de inteligencia artificial.

La propuesta de Microsoft también incluye el establecimiento de un registro público de sistemas de inteligencia artificial de alto riesgo que pueda ser visitado por todos los usuarios libremente con la intención de hacerles saber qué medidas se están tomando para proteger su seguridad.
Usar las IA como herramientas para abordar desafíos sociales
“Creemos que es una gran oportunidad para atraer al público y al sector privado usando herramientas de inteligencia artificial”, aseguró Smith, quien además aseguró que es necesario centrarse en problemas específicos que la inteligencia artificial puede ayudar a resolver, sobre todo si se trata de amenazas.
Smith aseguró que es importante que la inteligencia artificial pueda ser utilizada para proteger a la democracia, los derechos fundamentales y ayudar a avanzar hacia la sostenibilidad en el planeta.
Últimas Noticias
Las empresas apuestan por embajadores internos para impulsar la adopción de IA
Compañías como Morgan Stanley recurren a empleados expertos para motivar a sus equipos en el uso de inteligencia artificial, buscando cerrar la brecha entre la dirección y la plantilla

Black Friday 2025: verificar el sitio web, desconfiar de ofertas muy bajas y más pautas para evitar estafas
Las ofertas de noviembre y fin de año multiplican los riesgos para quienes compran productos en línea, siendo el envío de enlaces peligrosos y la suplantación de plataformas oficiales los fraudes más comunes

Lista de plataformas para ver películas y series gratis en vez de XUPER TV o Magis TV
Frente a la amenaza de malware y estafas en plataformas ilegales, existen aplicaciones que ofrecen acceso legal a catálogos amplios sin requerir datos bancarios ni registros complejos

El primer robot humanoide ruso cae en su debut y genera controversia
El inesperado tropiezo de AIdol durante su presentación en Moscú ha generado debate sobre el avance tecnológico ruso y ha puesto en duda la preparación del prototipo frente a la competencia internacional

Microsoft lanza nuevas actualizaciones para Windows 11: conoce las novedades más importantes
Microsoft lanzó la actualización KB5068861 para Windows 11, una de las más importantes del año, que introduce mejoras visuales, de rendimiento y seguridad





