![Empleados actuales y antiguos de](https://www.infobae.com/resizer/v2/FFLWQN5IUNE2DI3DHZJVH6NQ4U.jpg?auth=7b293a9d80869ef237043e57130cc9eaece8eaee00caf046e42ab87460b073eb&smart=true&width=350&height=214&quality=85)
Un puñado de empleados actuales y antiguos de destacadas empresas de inteligencia artificial advirtieron que esta tecnología plantea graves riesgos para la humanidad en una carta enviada el martes 4 de junio, en la que piden a las empresas que se comprometan a ser más transparentes y a fomentar una cultura de la crítica que las haga más responsables.
La carta, firmada por 13 personas, incluidos empleados actuales y antiguos de OpenAI, Anthropic y DeepMind de Google, afirma que la IA puede exacerbar la desigualdad, aumentar la desinformación y permitir que los sistemas de IA se vuelvan autónomos y causen muertes significativas. Aunque estos riesgos podrían mitigarse, las empresas que controlan el software tienen “fuertes incentivos financieros” para limitar la supervisión, señalaron.
La medida llega en un momento en que OpenAI se enfrenta a un éxodo de personal. Muchos críticos han visto en las salidas destacadas -incluidos el cofundador de OpenAI, Ilya Sutskever, y el investigador principal Jan Leike- una reprimenda a los dirigentes de la empresa, que según algunos empleados persiguen beneficios a costa de hacer más seguras las tecnologías de OpenAI.
Daniel Kokotajlo, antiguo empleado de OpenAI, declaró que abandonó la empresa por la indiferencia de la compañía ante los riesgos de la inteligencia artificial.
![La carta, firmada por empleados](https://www.infobae.com/resizer/v2/VKWUCNQCXKZKT3CGZ7NQ6QKZKY.jpg?auth=71b5acd4e0ed6756565511c86f211b2657ec84fd4c874aa8353eed9e274c7fe1&smart=true&width=350&height=214&quality=85)
“Perdí la esperanza de que actuaran con responsabilidad, sobre todo en su búsqueda de la inteligencia artificial general”, afirmó en un comunicado, en referencia a un término muy controvertido que hace referencia a ordenadores que igualan la potencia de los cerebros humanos. “Ellos y otros se han creído el planteamiento de ‘moverse rápido y romper cosas’, y eso es lo contrario de lo que se necesita para una tecnología tan potente y tan poco comprendida”.
Liz Bourgeois, portavoz de OpenAI, dijo que la empresa está de acuerdo en que “un debate riguroso es crucial dada la importancia de esta tecnología”. Los representantes de Anthropic y Google no respondieron inmediatamente a una solicitud de comentarios.
Los empleados afirmaron que, a falta de supervisión gubernamental, los trabajadores de IA son las “pocas personas” que pueden exigir responsabilidad a las empresas. Señalaron que se ven obstaculizados por “amplios acuerdos de confidencialidad” y que las protecciones ordinarias de los denunciantes son “insuficientes” porque se centran en actividades ilegales, y los riesgos sobre los que advierten aún no están regulados.
La carta pedía a las empresas de IA que se comprometieran a cumplir cuatro principios para permitir una mayor transparencia y protección de los denunciantes.
![OpenAI enfrenta desafíos internos sobre](https://www.infobae.com/resizer/v2/PCXWXWLNN4EYLE6B25QRXWNTCY.jpg?auth=0f890c79544bd6e0c98931b4817e5bf7b1d917f8311a5e34b2770c144d67e8d6&smart=true&width=350&height=233&quality=85)
Esos principios incluyen el compromiso de no suscribir ni aplicar acuerdos que prohíban criticar los riesgos; el llamamiento a establecer un proceso anónimo para que los empleados actuales y antiguos planteen sus preocupaciones; el apoyo a una cultura de la crítica; y la promesa de no tomar represalias contra los empleados actuales y antiguos que compartan información confidencial para dar la voz de alarma “después de que otros procesos hayan fracasado”.
En diciembre, The Washington Post informó de que altos cargos de OpenAI temían represalias por parte del consejero delegado Sam Altman, advertencias que precedieron a su destitución temporal. En una reciente entrevista en podcast, Helen Toner, antigua miembro del consejo de OpenAI, afirmó que parte de la decisión de la organización sin ánimo de lucro de destituir a Altman como consejero delegado a finales del año pasado se debió a su falta de comunicación sincera en materia de seguridad.
“Nos dio información inexacta sobre el pequeño número de procesos de seguridad formales que la empresa tenía en marcha, lo que significaba que era básicamente imposible para el consejo saber lo bien que estaban funcionando esos procesos de seguridad”, dijo a “The TED AI Show” en mayo.
La carta fue respaldada por luminarias de la IA como Yoshua Bengio y Geoffrey Hinton, considerados “padrinos de la IA”, y el célebre informático Stuart Russell.
(c) 2024 , The Washington Post
ultimas
En ocho años aumentó un 50% la cantidad de microplásticos hallados en cerebros humanos
Según un artículo publicado hoy en Nature Medicine, científicos de EE.UU. identificaron en 2024 fragmentos plásticos en tejidos cerebrales humanos en cantidades superiores a análisis de 2016. Estudian si podría estar contribuyendo al desarrollo de inflamación y trastornos cognitivos
![En ocho años aumentó un](https://www.infobae.com/resizer/v2/K4RECWD5ZVCX7AKHREWR4E4MRM.jpg?auth=6ef5d32f52348145743c49992a5d4bd60827a83cc800cf0b1097e1cd5ed7a0c7&smart=true&width=350&height=197&quality=85)
Intenta el “Febrero sin Teléfono” para reducir el tiempo de pantalla y mejorar tu salud
Un desafío global invita a reflexionar sobre el impacto del celular en nuestras vidas y a disminuir su uso diario para mejorar el bienestar general
![Intenta el “Febrero sin Teléfono”](https://www.infobae.com/resizer/v2/MDX7WSSNNFEDZPNMXG6MGJWCWY.jpg?auth=5e045160787a6a928eb8ed9c75ab91de8f241a51dd24f84aa46637321fa62a1d&smart=true&width=350&height=197&quality=85)
Las razones por las que un sistema anticolisión no habría evitado el accidente aéreo en Washington
La tragedia del vuelo 5342 de American Eagle cerca del Aeropuerto Nacional Reagan ha reavivado el debate sobre el Sistema de Alerta de Tráfico y Prevención de Colisiones. Sin embargo, su efectividad no es absoluta
![Las razones por las que](https://www.infobae.com/resizer/v2/BTKGTYP4MPM4ROQSYQYFGRSLHM.jpg?auth=98589579597e3b926636ff4e5eb854bb0e77ac0378217b9d521098ce2c076d59&smart=true&width=350&height=197&quality=85)
Cómo un vuelo reciente hizo nevar en Denver
Los datos meteorológicos y de radar apuntan al vuelo 5528 de United operado por SkyWest Airlines como el responsable de originar una nevada
![Cómo un vuelo reciente hizo](https://www.infobae.com/resizer/v2/NQUDOQF335BSPLFSVD4DWRKVGE.jpg?auth=c06508142259e4ac77f0df8c9cef4df4da25c49ffe898d663e71794526e12092&smart=true&width=350&height=197&quality=85)
Las bebidas azucaradas causaron unos 2,2 millones de casos de diabetes tipo 2 en EEUU en 2020
Una investigación global vinculó el consumo de estas bebidas con millones de nuevos casos de la enfermedad en todo el mundo, enfocándose en las regiones más afectadas y datos comparativos clave
![Las bebidas azucaradas causaron unos](https://www.infobae.com/resizer/v2/7RZDNMYOUBG7RPDOM7R2325PJM.png?auth=ca1c08ec0da0915087df8d7809296309774ddbf94e19a37d5da7f4e3d9b48d57&smart=true&width=350&height=197&quality=85)