Steve Wozniak, cofundador de Apple, hace una importante advertencia sobre el peligro de la IA en manos de personas malas

Pese a que esta tecnología ahorra esfuerzo, tiempo y dinero en la mayoría de trabajos, puede ser usada para cometer varios delitos cibernéticos sin dejar rastro

Guardar
Estos señalamientos son respaldados por
Estos señalamientos son respaldados por otros referentes de la industria. (Foto: REUTERS/Albert Gea)

A medida que la inteligencia artificial (IA) adquiere niveles de sofisticación más altos, las voces de alerta dentro de la industria tecnológica se intensifican. Entre ellas, la del cofundador de Apple, Steve Wozniak, resuena con particular fuerza por su enfoque en los riesgos éticos y de seguridad.

En una entrevista con la BBC, Wozniak advirtió que la IA está “abierta a los malos jugadores, los que quieren engañarte sobre quiénes son”, en alusión directa al uso fraudulento que podría hacerse de sistemas capaces de replicar el lenguaje y el razonamiento humanos con altísima precisión.

La preocupación del ingeniero no es nueva. En otras ocasiones ha expresado su alarma sobre el potencial de la inteligencia artificial para facilitar estafas y campañas de desinformación. “La IA es tan inteligente que quedará a merced de malas personas”, mencionó.

Por qué la IA es un riesgo cuando cae en manos equivocadas

Ya se han visto casos
Ya se han visto casos de cómo ciberdelincuentes pueden atacar sistemas de organizaciones internacionales. (Imagen Ilustrativa Infobae)

Wozniak sostiene que la inteligencia artificial no es peligrosa por sí misma, sino por el tipo de uso que ciertos individuos o grupos pueden darle. La capacidad de esta tecnología para generar contenido convincente y automatizado puede ser usada para fines ilegítimos, como campañas de manipulación política o fraudes personalizados.

Esta visión ha sido compartida por especialistas como Elena García Armada, referente española en robótica, quien advirtió que herramientas como ChatGPT pueden “producir textos altamente persuasivos”, lo que las convierte en vehículos ideales para la difusión de noticias falsas o contenidos engañosos.

La habilidad de estas plataformas para imitar el discurso humano con coherencia y naturalidad, incrementa el riesgo de suplantación de identidad o generación de confianza falsa.

De qué forma la IA puede aumentar la efectividad de las estafas

Voces clonadas pueden manipular a
Voces clonadas pueden manipular a las personas a dar datos sensibles. (Imagen Ilustrativa Infobae)

La advertencia no es meramente teórica. Wozniak ha enfatizado el peligro concreto que representa la IA al facilitar fraudes más creíbles. Su capacidad para escribir correos, mensajes o diálogos convincentes hace que los esquemas fraudulentos puedan escalar en alcance y efectividad.

El contenido generado automáticamente puede replicar el tono y estilo de una persona o empresa, haciendo casi imposible detectar el engaño sin herramientas especializadas.

También, la evolución de estas tecnologías ha disminuido las barreras de entrada para los ciberdelincuentes. Ya no es necesario contar con un equipo técnico sofisticado: basta con acceder a una plataforma pública de IA para producir contenido que antes requería conocimientos avanzados.

Este escenario ha encendido alarmas entre los expertos, que reclaman controles más estrictos y sistemas de autenticación que puedan verificar la procedencia de los mensajes.

Cuál es la probabilidad de que la IA reemplace a los humanos

El empresario cree que el
El empresario cree que el factor humano seguirá siendo indispensable. (Foto: EFE/José Jácome)

Para Wozniak, la inteligencia artificial, por más avanzada que sea, no tiene la capacidad de experimentar emociones ni de replicar la conciencia humana.

En sus palabras, no cree que la IA pueda “reemplazar a los seres humanos”. Aun así, reconoce que su mal uso puede amplificar los efectos de acciones dañinas, al multiplicar su alcance y velocidad.

El problema, entonces, no radica en una supuesta autonomía de las máquinas, sino en su capacidad para ejecutar órdenes humanas de forma extremadamente eficiente.

Cuando esa eficiencia se aplica a actividades maliciosas, los efectos pueden ser desproporcionados, afectando tanto a individuos como a sociedades enteras. La IA no sustituye al ser humano, pero sí puede ser una extensión amplificada de sus peores intenciones.

Qué dicen otros expertos sobre el potencial de la IA

Queda mucho terreno por explorar
Queda mucho terreno por explorar y entender esta emergente herramienta. (Imagen Ilustrativa Infobae)

Una de las revelaciones más inquietantes del debate actual sobre inteligencia artificial proviene de Dario Amodei, CEO de Anthropic. El ejecutivo reconoció que “no tenemos ni idea de cómo funciona la inteligencia artificial”, una afirmación que deja al descubierto los límites del entendimiento científico sobre esta tecnología.

Esta opacidad preocupa no solo por su carácter técnico, sino porque dificulta prever sus efectos sociales y políticos. La complejidad de los modelos de IA, sobre todo los basados en aprendizaje profundo, ha generado una suerte de “caja negra” cuya lógica interna resulta casi indescifrable incluso para sus creadores.

Este desconocimiento debilita la capacidad de anticipar errores o desvíos, y alimenta el argumento de Wozniak sobre la necesidad de regulaciones que vayan más allá del control corporativo