Deep Fake se llama a la utilización de IA para alterar imágenes de personas y, segñun explicó Lombardi, “son habitualmente imágenes y videos muy realistas y, en este caso y otros que estuvimos viendo a nivel país, se usan con fines de hacer daño, mínimamente daño”.
“Alguna persona, en este caso adolescentes, tomaron fotos de sus compañeras de colegio y por medio del uso de IA las desnudaron. En algunos de los casos estas imágenes solo fueron compartidas y en otras se han vendido, inclusive, por grupos de WhatsApp y Telegram, en foros de Discord”, relató.
Señaló que a partir de estos casos, se analizan varias aristas. “Primero, el mal uso de la tecnología que están haciendo estas personas, para lo que necesitamos mayor concientización, educación en lo que tiene que ver con el uso positivo de la tecnología”, marcó, además de la falta de consentimiento para el uso de las imágenes originales.
“Hay ya en el país, una Fiscalía de Córdoba que inclusive imputó a un alumno, por lesiones graves, calificadas, por violencia de género así que esa es otra punta para analizar”, comentó.
Recordó que Argentina fue uno de los primeros países de Sudamérica en contar con legislación, desde el año 2000, de protección de datos personales. “Pero en el 2000 usábamos el Nokia 1100 y hoy utilizamos Smartphone que son súper poderosos y nos encanta. pero la legislación es la misma. Ya hay varios proyectos en nuestro país que deberían tratarse cuanto antes en cuestión de protección de datos personales. El uso sin consentimiento de imágenes de estas personas, menores, mujeres, es un conflicto”.
Por otro lado, marcó que en países europeos también se avanza con legislación para la regulación en el uso de la Inteligencia Artificial y también “la variación de la mayoría de edad para la utilización de ciertas plataformas digitales que no deberían ser utilizadas por menores”.
“Son varias puntas, pero lo que creo importantísimo es esta educación que debemos fomentar. Recaemos siempre en las instituciones educativas pero esto es algo que se debe trabajar en los hogares. Si yo uso la tecnología positivamente voy a generar un efecto de contagio en los menores. Pero si ni siquiera hablo de lo que es un uso positivo de la tecnología estoy dejando un vacío para que ese menor haga un uso de la tecnología como cree que puede hacerlo”.
“Me parece importante estar atentos e informados. Y en esta idea me parece fundamental formarnos nosotros personalmente para entender cuándo es una fuente verdadera y cuando no. Estar atravesados por TikTok, por shorts de YouTube a veces hace que la información que nos llegue pueda ser muy impactante pero poco verídica. No creo que se acabe el mundo con la IA, de hecho, lo más interesante, son la cantidad de soluciones que aporta al mundo hoy. En función de esto, creo que hay que recapacitar y reflexionar en función de lo que se puede hacer de positivo con la IA. Evitar los riesgos, tener en cuenta la privacidad, proteger nuestros dispositivos son muy básicas, pero nos vamos olvidando”, aseguró.
Para Lombardi, “sigue siendo muy sencillo caer en estafas por mensajes de WhatsApp, llamadas telefónicas. Y con Inteligencia Artificial la clonación de la voz de una persona. Todavía no conozco en el país un caso de Deep Fake, que una persona interactúe en una videollamada con la imagen de una persona modificada. Pero sí estamos viendo a muchísimas personas en el medio digital que están sacando ventaja muy positiva de esta tecnología.
“En cuestión de estafas, siempre vuelvo a lo más básico, proteger nuestros dispositivos y a nosotros. Proteger nuestros dispositivos implica actualizaciones, solución de seguridad y no hacer click en cualquier parte. Protegernos nosotros implica estar informados, atentos a llamados o mensajes que lo primero que quieren es que nuestras emociones actúen por sobre nuestra inteligencia o intelecto. Es importante prestar atención, para y luego reaccionar”, apuntó.




