
Mientras los asistentes de inteligencia artificial se integran cada vez más en la vida cotidiana –desde responder mails hasta tomar decisiones financieras–, la mayoría de los usuarios interactúa con estas herramientas sin hacerse demasiadas preguntas. ¿Qué implicancias tiene esta creciente dependencia de la IA? Sobre estas cuestiones, Infobae conversó con Ricardo Rodríguez, doctor en Ciencias de la Computación especializado en Inteligencia Artificial.
Rodríguez es investigador del Conicet y profesor en la Facultad de Ciencias Exactas de la UBA; suele dictar cursos sobre IA y ética. Entre otros intereses, participa activamente en la campaña “Stop Killer Robots”, y es autor de varios documentos sobre el uso de armas autónomas.
Esta semana, Rodríguez expuso en la Escuela Internacional de Verano en IA que coorganizaron las universidades nacionales de Hurlingham (UNAHUR) y San Martín (UNSAM), junto con otros especialistas internacionales como Jinming Duan (de la Universidad de Birmingham, Inglaterra) y Gonzalo Uribarri (del KTH Royal Institute of Technology de Suecia).
En diálogo con Infobae, Rodríguez planteó la necesidad de construir métricas que permitan evaluar la transparencia de los sistemas de IA, advirtió sobre la excesiva concentración de las big tech y subrayó la importancia de que los usuarios tomen conciencia sobre el uso de sus datos personales y el impacto ambiental de la IA, entre otros desafíos actuales.
–¿Cuáles son los principales dilemas éticos que plantea hoy el desarrollo de la inteligencia artificial?
–La primera cuestión es la gran concentración del mercado de productores de tecnología. Hoy en Occidente hay solo cinco empresas que están en condiciones de generar IA relevante y tienen esencialmente el monopolio. Y se dan el lujo de decir que son “open AI”. Pero acá “open” significa que te permiten usar sus modelos. Entonces, todo lo que uno puede hacer como desarrollador de una pyme o de una universidad es construir sobre unos modelos que son bastante oscuros, sobre los que hay poca documentación. Hace 15 años o 20 años, cuando se hablaba de “open source” en programación, el código era abierto: uno podía meter mano y cambiar. Eso con “open AI” ya no es así.
Es interesante cómo ahora los grandes monopolios imponen cuestiones sin pedir permiso. Por ejemplo, como se vio en los medios en estos días, ahora Google presenta el Golfo de México como Golfo de América según dónde vivas. Eso es una arbitrariedad desde el punto de vista diplomático; la cartografía internacional no cambia porque una empresa decida cambiarle el nombre a un lugar. Pero se cuenta como algo gracioso y no se discute. Creo que este tipo de cuestiones deberían empezar a plantearse.
Otro caso: uno puede pedirle al Copilot de Microsoft que genere código; le decís “yo quiero un programa que haga esto” y el Copilot lo genera. Pero está comprobado que, para para poder entrenar a Copilot para esa funcionalidad, Microsoft tomó código de las redes que estaba bajo licencias GNU, o sea de código abierto. Eso implicaba cierto compromiso de usar ese código para generar programas que fueran también abiertos. Pero Microsoft se salta esa regla y usa el código abierto, pero lo que genera no es de código abierto.
Otro ejemplo. La que hoy es la empresa más grande de procesamiento de imágenes que se usan para entrenar los modelos de seguridad de la policía en Estados Unidos generó su base de datos tomando las fotos de las personas de LinkedIn y de Facebook, sin pedir permiso porque no había ninguna legislación al respecto. Esto también es grave y pasa todo el tiempo: no piden permiso, a lo sumo después piden perdón.
–Desde hace tiempo se viene discutiendo sobre la transparencia de los algoritmos y la necesidad de que los usuarios entendamos un poco mejor cómo procesan la información y cómo definen los resultados. ¿Es posible hacer comprensibles los algoritmos para el usuario común?
–Cuando uno analiza sistemas de inteligencia artificial, en general se plantea que tienen que tener transparencia, accountability (rendición de cuentas), fairness (justicia). Pero hoy todavía no hay métricas para estas cosas. Hay algunos sistemas lanzados por las propias empresas, pero no son para la gente común.
Creo que es necesario que el usuario común tome conciencia de la necesidad de reclamar que exista algún tipo de control. Y ese también es un problema complicado. Por ejemplo, hay controles de armas químicas y biológicas, y se sabe cómo hacer ese tipo de cosas. Hay una agencia que da ciertas reglas de contexto y para cada caso particular verifica ciertas condiciones, no puede haber legislación genérica.
La legislación europea clasifica los sistemas de IA en diferentes categorías según el nivel de riesgo con “semáforos”. Pero la calificación de qué es “peligroso” o no es muy subjetiva a priori. Dieron algunos ejemplos de cuestiones que están prohibidas, pero las métricas no están claras. Yo creo que no hay forma de escribir en una ley una reglamentación genérica. Lo que hay que hacer es generar una agencia internacional, darle herramientas, definir criterios y aplicar esos criterios. Y para eso falta mucho tiempo todavía, porque no hay conciencia social de esta necesidad y hay intereses importantes para que esto no pase. Hay mucha gente interesada en que esa discusión no se dé.
En la Comunidad Europea hoy lo fuerte es el Reglamento General de Protección de Datos; la reglamentación sobre IA se monta sobre esto. Y si bien hay muchas cosas que todavía siguen pasando, el reglamento de datos personales implica algunas restricciones fuertes. Por ejemplo, a TikTok le piden que dé cuenta de cómo guarda los datos y cómo hace el seguimiento, la traza. Pero muchas de las empresas europeas se quejan de que ese reglamento es un corsé muy fuerte porque requiere que, frente a una decisión tomada por un sistema informático –sea de inteligencia artificial o no–, tiene que haber una explicación de por qué se tomó esa decisión. Eso es la “explicabilidad”. Que es algo muy deseable, pero los propios europeos lo están discutiendo porque ven que Estados Unidos y China siguen avanzando, y Europa está generando normas que le impiden ser competitiva. Ese sería el argumento “por derecha”, por llamarlo de alguna manera; es análogo a la discusión europea sobre el Estado de bienestar.
Es clave que la sociedad en general participe de la discusión sobre cómo se usan sus datos personales, debatir cuestiones tan elementales como por qué cada vez que me bajo una app le permito recolectar mis datos y que la empresa los use con libertad, sin ninguna reglamentación.

–¿La alfabetización digital de la ciudadanía podría contribuir a que se plantee esa discusión? ¿La educación debería tomar este tema como prioritario?
–Yo creo que sí; es algo que debería ser básico. La gente tiene que valorar más sus datos. También debería haber alguna ley de “minimalidad”: no puede ser que, si me bajo una app para saber los horarios del colectivo, me pidan hasta mi grupo sanguíneo. Hoy las apps te exigen una cantidad de información que es desmedida –e innecesaria– respecto de la prestación que te van a dar. En Europa esto pasa un poco menos porque hay legislación al respecto. Pero en Argentina el proyecto de una nueva ley de datos personales quedó parado.
Creo que hay que abordar esto de dos maneras. Por un lado, tiene que haber herramientas legales para que no haya abusos. Por otro lado, es fundamental que haya una mayor conciencia pública.
Creo que es fundamental fomentar esta conciencia. Hoy el Estado no tiene una política. El Estado argentino tiene muchos de sus datos en la nube, cuyos propietarios están en el extranjero. Arsat tiene un data center propio, pero es muy chiquito. Desde el punto de vista de la soberanía, buena parte de la información del Estado argentino está fuera del país, fuera de su control. Por ejemplo, los datos de los pacientes de un hospital pueden estar en una nube contratada a Amazon, que no tiene un data center en Argentina. ¿Y si alguien quisiera usar esos datos? No hay mucho control sobre eso.
–¿Qué cuestiones te parece que se deberían estar discutiendo en el sistema educativo en relación con la IA?
–Yo no soy un experto en educación, pero creo que hay que usar la IA en la escuela. La gran ventaja que tiene esta tecnología es que uno puede consultarle cosas y no hace falta saber todo, pero sí es clave saber qué preguntar. Por otro lado, es muy importante tomar lo que devuelve ChatGPT con criterio, con actitud crítica. Tengo muchos amigos profesores que piden monografías y reciben textos que los alumnos hacen con ChatGPT sin siquiera leerlos antes de entregar. Es clave la formación docente para poder incorporar sabiamente estas tecnologías en el aula. Es fundamental explicarles a los docentes cómo funcionan estas tecnologías y darles recetas concretas para poder usarlas en clase al servicio del aprendizaje.
Hay dos cuestiones que me parecen importantes. Primero, ser conscientes de que usar ChatGPT tiene un impacto muy importante en términos de recursos climáticos y energéticos. Se gasta mucha agua en un data center cada vez que uno le hace una consulta a ChatGPT solo por jugar o sobre temas nimios, por ejemplo “¿cuál es la mejor receta que puedo cocinar hoy?”.
En segundo lugar, el desafío es usar estas tecnologías de forma tal que no nos vuelvan perezosos. Es un problema que estemos delegando tantas decisiones en la inteligencia artificial. Se está extendiendo mucho el uso de asistentes de IA a los que uno les habla todo el tiempo y les pide ayuda. En el fondo, eso nos vuelve dependientes de la tecnología, y dejamos de poner en práctica el pensamiento. Les estamos dando tanto poder que nos estamos atrofiando nosotros. Creo que la escuela tiene que seguir sosteniendo el esfuerzo y el pensamiento de largo plazo. Si no, estamos inmersos en lo inmediato y perdemos la capacidad de proyectar. Para el común de la gente, planificar va a ser cada vez más difícil, porque la tecnología promueve un pensamiento cortoplacista. Y a medida que las herramientas se vayan perfeccionando, esto va a ser cada vez más fuerte.
–¿Esa delegación excesiva de facultades en la IA puede afectar la calidad del sistema democrático?
–Eso tiene que ver con la cuestión educativa. Si la sociedad no es consciente de qué hacen estos sistemas y cuáles son sus riesgos, sí puede haber problemas. Estos sistemas tienen una gran capacidad de manipularnos. Muchos usuarios reciben de manera acrítica la información de las redes, la aceptan tal como viene. Y a veces son barbaridades. Si yo tengo una tecnología que me permite perfilarte en cuanto a cuáles son tus gustos y tus puntos débiles, y si te puedo bombardear con información que impacte sobre tu opinión y sobre tu comportamiento (por ejemplo, a quién vas a votar)… entonces te estoy manipulando. En general no somos conscientes de que lo pueden hacer, porque no es que te ponen un chip al estilo Matrix, es mucho más sutil. Tienen capacidad de segmentar y de definir qué te muestran a vos –diferente de lo que le muestran a otro usuario– para que cambies tu opinión. Y esa información incluso puede ser falsa o tendenciosa.
A mí me sorprende lo que está pasando en Estados Unidos, donde los millonarios que encabezan estas grandes empresas tecnológicas han aparecido en el espacio político desembozadamente. Hace 15 años no tomaban esas posiciones, no se exponían tanto. Me parece que hay una tendencia a la tecnocracia en la que estos personajes están envalentonados y toman decisiones que afectan a la gente, aun de manera bien intencionada. Creo que es también una cuestión elitista que en el fondo tiende al autoritarismo. Eso indefectiblemente atenta contra la democracia. Para que la democracia funcione, tiene que haber educación y conciencia social, y la gente tiene que entender cuáles son las reglas del juego. Sin esa conciencia, la gente deja de participar, deja de quejarse y de cuestionar. Si se pierde la participación, eso es un problema para la democracia.
ultimas
Luis Scasso, director de la OEI en Argentina, fue condecorado por el gobierno de Honduras
Recibió la Orden de Francisco Morazán, el reconocimiento más alto que otorga el país centroamericano, por su labor en el campo de la educación y su aporte al desarrollo regional. En la ceremonia, resaltó el valor del diálogo y de la educación como herramienta para la libertad
Cómo se escribe: ¿El reciente ganador o el recién ganador?
La Real Academia Española se ha convertido en la institución más relevante para fomentar la unidad idiomática del mundo hispanohablante

Las “escuelas pioneras” se preparan para implementar la reforma educativa Secundaria Aprende
Ticmas habló con los rectores de tres de las 33 escuelas pioneras que implementarán la reforma educativa Secundaria Aprende. A través de sus voces, emerge el modo en que cada institución se prepara para el cambio y los desafíos que enfrentan directivos, docentes y estudiantes

Cuál es la forma correcta: ¿Una enfermedad aqueja a alguien o alguien aqueja una enfermedad?
Aunque escribir bien no es una tarea sencilla, requiere de práctica y de conocer las estructuras de la lengua

La UBA lanza la carrera de Bioingeniería, enfocada en tecnologías que mejoran la calidad de vida
Brindará una formación interdisciplinaria orientada a resolver problemas en los campos de las ciencias médicas, biológicas y veterinarias. La duración es de cinco años; ya está abierta la inscripción al Ciclo Básico Común
