Innovación tecnológica, acción y reacción

Ante casos de ausencia de “ÉTICA” tecnológica, es necesario trabajar en la prevención, regulación y legislación antes de sufrir las consecuencias. El daño colateral está ocurriendo ante la impávida mirada de la sociedad y su falta de educación y conciencia sobre el riesgo

Guardar
La “superinteligencia” está a la
La “superinteligencia” está a la vuelta de la esquina (Imagen ilustrativa Infobae)

Enron -y su caída en un momento protagónico en el escenario de la industria energética- arrastró a su auditor, la firma Arthur Andersen. El fraude corporativo reportó u$s 11.000 millones y 21.000 puestos de trabajo. Esta crisis generó la reacción del mercado y de la comunidad de negocios.

Paul Sarbanes, miembro del Partido Demócrata, y Michael Oxley, republicano, dieron lugar a la actual y reconocida Ley Sarbances Oxley, que propició la auditoría independiente y la transparencia financiera, eliminó los préstamos corporativos a directivos y estableció un código de ética para líderes financieros, coronando la iniciativa con las normas de conducta respecto del gobierno corporativo, constituyendo un código de ética para el director ejecutivo, el director financiero, el controller y otros líderes.

Un claro ejemplo de involucramiento regulatorio y legislativo luego del “crack”, la experiencia del mercado de valores fue puesta a prueba en aquel inicio de este siglo, dando lugar a un nuevo escenario. La curva de aprendizaje fue larga y costosa en muchos aspectos, pero práctica y efectiva.

Hoy, nuevas necesidades asoman. La irrupción total y absoluta de la digitalidad deja en evidencia una necesidad indiscutible: los negocios digitales, por su dinámica y velocidad, adolecen de suficientes medidas de control. Monederos, billeteras, fintech, bancos virtuales y cripto evolucionan a paso rápido y sostenido. No así sus regulaciones, sin fronteras, ni gobiernos, ni bancos centrales que respalden.

Es necesario tomar acción y trabajar en la previa, ya que los componentes que vienen a impulsar más aún esta transformación ya están al alcance de la mano. Inteligencia artificial y conectividad total, será imposible detenerlos. No se trata de cybersecurity o de algoritmos. Es un asunto “ético”; la “superinteligencia” está a la vuelta de la esquina y es como un cuchillo, podremos cortar un bife de chorizo o asesinar a alguien.

Pero, si hiciera falta sensibilizar y golpear bien bajo, el escenario es más complejo aún. Nuestros sondeos indican que una amenaza en ciernes se proyecta velozmente y también está fuera de control. La dark web y sus vidrieras en la superficie se están inundando de imágenes de abuso infantil generadas por IA. En las últimas décadas, la amenaza que suponen los abusos online para los niños se ha multiplicado a un ritmo preocupante: algunos organismos hablan de casi 1.000 % en los últimos 10 años.

La prevalencia de las herramientas de generación de imágenes con inteligencia artificial está impulsando aún más esta tendencia. Existe un creciente interés de parte de estos delincuentes organizados en aprender a utilizar herramientas de IA y crear imágenes de abusos. La tendencia es crear imágenes a partir de fotografías y videos reales de niños, extraídos de redes sociales, plataformas de juegos o WhatsApp, perpetuando el impacto del abuso y trasladándolo al offline, ceando luego escenas vívidas y realistas de la nueva “pornografía deepfake”.

Sin duda, este formato obligará a una redefinición sobre como trabajar en la detección, moderación e investigación de las imágenes de abuso de menores para identificar si son imágenes “reales” o “generadas”.