
El 2026 comienza con una idea instalada: hay que usar inteligencia artificial. La frase se repite como si fuera una solución concreta. Y detrás de esa certeza hay una realidad innegable: demasiadas tareas, poco tiempo, procesos que colapsan.
En ese contexto, la IA aparece como respuesta para todo. Pero en la urgencia del día a día, se está esquivando la pregunta más importante: ¿para qué se quiere adoptar?
La tecnología ya llegó a un punto robusto. Los agentes conversacionales permiten búsqueda, redacción, ideación, predicción, detección, clasificación, asistencia. Los flujos agénticos automatizan procesos completos. Los agentes autónomos ejecutan tareas sin intervención humana. La inteligencia artificial está dejando de ser una limitante para llevar adelante nuestra actividad. Sin embargo, todavía no está lista la reflexión sobre dónde aplicarla y, especialmente, dónde no hacerlo.
Porque la pregunta ya no es si puede resolver una tarea. En la mayoría de los casos, puede. La pregunta es si debe. Y esa distinción, aparentemente sutil, separa el uso estratégico del uso reactivo, impulsado por la urgencia operativa.
Hay tareas mecánicas, repetitivas y estandarizadas que parecen candidatas obvias para la automatización. Y en muchos casos lo son. Pero adicionar una capa de inteligencia artificial a ciertos procesos también implica deshumanizarlos, quitarles componentes esenciales que, aunque no sean evidentes en el corto plazo, pueden tener consecuencias en el mediano y largo plazo.
La toma de decisiones es el ejemplo más crítico. Cuando la IA ofrece una predicción, una recomendación o una respuesta, una persona puede hacer un click o apretar un botón para aceptarla. Técnicamente, esa decisión final sigue siendo humana. Pero eso no alcanza. El involucramiento real en ese proceso no puede reducirse a un gesto de validación automático.
Otro caso evidente está en la lectura. Hoy cualquier modelo de lenguaje puede resumir mil páginas en pocos segundos. Pero cuando se acorta ese proceso, se le está quitando al ejercicio de lectocomprensión algo fundamental: el tiempo de aprendizaje, la construcción gradual de sentido o la capacidad de conectar ideas. Es cierto que entre intentar leer mil páginas sin tiempo disponible y acceder a un resumen preciso, lo segundo puede ser mejor. Pero eso no debería convertirse en la regla sino la excepción.
Con la atención personal también pasa algo similar. Los chatbots resuelven un porcentaje alto de consultas sin intervención humana. Son rápidos, eficaces y están disponibles las 24 horas. Pero hay situaciones en donde la gente no necesita esa automatización: quiere sentirse oída. Ese resultado operativo puede coexistir con la empatía humana, pero sólo si los sistemas se diseñan para eso. Si simplemente se reemplazan personas por máquinas porque es más rápido o más económico, no se está mejorando.
En educación, el tema es aún más profundo. Si hoy un estudiante puede pedirle a un agente conversacional que le resuelva un problema, que le escriba un trabajo o que le explique un concepto, ¿qué incentivo tiene para aprender? No se trata de prohibir la IA en las aulas, sino de rediseñar la transferencia del conocimiento para que se pueda medir lo que realmente importa: la capacidad de pensar, de argumentar, de reflexionar.
Como se ve, el riesgo no es técnico, es estratégico. Porque si bien la tecnología aún no resuelve el 100% de las cosas, ya lo va a hacer. Y cuando eso pase, no va a importar quién la adoptó primero. Lo que va a importar es quién la adoptó bien. Hoy el debate está atrapado en si la IA “alucina”, si “se equivoca”, si “todavía no está lista”. Pero el punto crítico es otro: qué estamos decidiendo delegar.
Por lo tanto, ante el futuro que se aproxima, el desafío de este año no es solo aprender a usar herramientas de IA. Es, principalmente, pensar antes de adoptarlas. A preguntarse si esa tarea debe ser automatizada o necesita verdadera intervención humana. Si se está ganando eficiencia o perdiendo sentido. Qué se deja al delegar. Qué consecuencias tiene deshumanizar ese proceso.
Y si la decisión es deshumanizar, al menos que se diga. Que se asuma con claridad y se establezca una hoja de ruta. Porque eliminar tareas implica reorganizar, readecuar y reconvertir. Pero sin plan, sin reingeniería de procesos y sin estrategia para las personas que los sostienen, esa adopción tecnológica no es una mejora: es un parche. Y tarde o temprano termina en fracaso.
El panorama global indica que quienes lideren los próximos años no van a ser los que adopten esta tecnología más rápido, sino los que sepan aplicarla adecuada y estratégicamente. Los que entiendan que no todas las tareas deben ser aceleradas, no todos los procesos automatizados y no todas las decisiones delegadas.
2026 tiene que ser el año de pensar antes de adoptar IA. Porque a final de cuentas, lo que va a importar no es haberlo hecho, sino haberlo hecho bien.
Últimas Noticias
La reforma laboral y la salud: por qué importa más de lo que parece
La precarización laboral y el trabajo informal afectan la cobertura sanitaria y debilitan tanto a los trabajadores como a las empresas argentinas

Bajar la edad de imputabilidad: una discusión incómoda, pero necesaria
Sin responsabilidad no hay reinserción posible; pero sin límites tampoco hay pedagogía social

¿Economía popular? La trampa conceptual que divide a los trabajadores
Llamar “popular” a la precariedad es romantizar la pobreza. La pobreza es circunstancial, no una identidad permanente. El esfuerzo de quienes trabajan merece ser valorado, no encasillado en categorías que perpetúan la exclusión

Disforia en menores: evidencia científica y responsabilidad estatal
El avance de tratamientos hormonales y quirúrgicos en jóvenes sin consenso científico suficiente desafía los principios de la medicina basada en evidencia y plantea dilemas éticos y legales

La adecuación de la Ley de Glaciares y la paradoja legislativa
El proyecto que impulsa el Gobierno no propone debilitar la protección ambiental, sino devolver a las provincias la potestad de regular el uso y resguardo de sus propios recursos naturales




