Cuando la Inteligencia Artificial es usada para dañar a las personas
En General Roca, un caso reciente ha dejado en evidencia la falta de control y regulación sobre el uso de tecnologías avanzadas como la inteligencia artificial. Estudiantes de una escuela secundaria utilizaron imágenes de sus compañeras para generar contenido sexual mediante inteligencia artificial creando escenas explícitas de sexo que han afectado gravemente la dignidad y la intimidad de las jóvenes involucradas.
Este hecho es una violación flagrante de los derechos de estas personas y pone de manifiesto la urgente necesidad de una legislación que proteja a las víctimas y sancione con dureza a los responsables. Sin embargo, el Estado parece mirar para otro lado, sin tomar las medidas necesarias para abordar estas nuevas acciones.
La inteligencia artificial tiene un enorme potencial, pero cuando cae en manos equivocadas, puede ser utilizada como un arma para dañar la honorabilidad de personas inocentes. Las víctimas de este tipo de agresión digital sufren daños comparables a los que ocurrirían si las imágenes fueran reales, y es inaceptable que el Estado permanezca inactivo ante estas nuevas formas de violencia.
Es indispensable que se legisle de inmediato para proteger a las víctimas y castigar severamente a los responsables. No podemos permitir que estos hechos pasen desapercibidos. La tecnología no puede ser una excusa para violar la intimidad de las personas y mucho menos para destruir su reputación.
Asimismo, las empresas que desarrollan y distribuyen herramientas de inteligencia artificial deben asumir su responsabilidad. No basta con crear la tecnología y luego desentenderse de cómo se utiliza. Los desarrolladores deben implementar mecanismos de control y prevención que impidan el uso indebido de estas herramientas, y deben ser parte activa en la lucha para evitar que se conviertan en instrumentos de agresión.
La sociedad debe unirse en esta causa para asegurar que la tecnología se utilice para el bien común, y no para dañar a personas inocentes. Exigimos responsabilidad y acción inmediata por parte del Estado y de las empresas tecnológicas para proteger la dignidad e intimidad de todos y todas.
(*) Presidente PAR Viedma