El crecimiento de los ciberdelitos y el desarrollo de nuevas técnicas impulsadas por la inteligencia artificial están emergiendo gradualmente como una preocupación relevante para la sociedad. En una entrevista con La Mañana, la abogada experta en tecnología y docente de la Universidad de Montevideo, Agustina Pérez, ofreció un análisis sobre cómo la sociedad está abordando este desafío tecnológico emergente.
¿Qué importancia le da a la inteligencia artificial en el futuro y su incidencia en los ciberdelitos?
Hay que ver dónde se establece el límite de todas las herramientas a las cuales hoy tenemos acceso y qué se considera lícito y qué no. Se deben contemplar entonces varios terrenos. En Europa hay una regulación de ciber-resiliencia por la que se empezó a regular el uso de dispositivos. O sea, los dispositivos que ingresan al mercado europeo deben tener determinados estándares de ciberseguridad y operar de una determinada manera para que, por ejemplo, no se utilicen para prácticas ilícitas. Tampoco pueden ser vulnerados. Otro de los desafíos es estandarizar y saber dónde poner los límites para no estar en cierta medida aislando industrias o cortando la innovación y al mismo tiempo proteger a los usuarios y a cualquier sector vulnerable que pueda llegar a verse desprotegido por este tipo de prácticas ilícitas.
Primero se pensaba que la inteligencia artificial era solo para la automatización y capaz que la utilizaban pocas empresas. Después se introdujeron otros elementos. Hay plataformas que son en gran parte de uso gratuito, que generan, por ejemplo, imágenes que cada vez son más exactas, entonces es más difícil de percibir para el ojo humano la diferencia entre lo real y lo no real. También en este sentido se está intentando educar a los usuarios de las plataformas, inclusive con la autorregulación. Las redes sociales decidieron advertir que hay contenido que puede ser generado con inteligencia artificial. Eso en cierta medida ayuda a que los usuarios empiecen a percibir que esa imagen que estás viendo no es real o fue adulterada de alguna manera, y después fue subida a las redes. Las plataformas hacen estas advertencias no porque la ley se los exija, sino porque en cierta medida están empezando la concientización digital y son a veces las que ayudan a que los usuarios empiecen a entender el entorno digital en el cual operan.
Con inteligencia artificial ya se puede imitar la voz de una persona. ¿Esto puede contribuir a un incremento en los ciberdelitos?
El deepfake es un video o audio falso creado con técnicas de inteligencia artificial que imitan la voz o el rostro de una persona. La finalidad es generar un daño para, por ejemplo, llevar a una persona a una confusión y lograr un enriquecimiento ilícito. Hay muchas plataformas o software que facilitan poder realizar esto. Y eso es algo que se empezó a poner sobre la mesa en el mercado europeo. Se intenta definir cómo clasificarla dentro de lo que es una matriz de riesgo y a partir de ahí, dependiendo de dónde está ese producto dentro de esa matriz, puede ser prohibido. También se puede buscar una licencia para operar con ese producto en Europa. Esas matrices de riesgo se empiezan a utilizar mucho y una de las causas es justamente por las prácticas ilícitas que conllevan. Debo aclarar a este respecto que en Uruguay la utilización de la voz falsificada cae dentro de la tipificación de suplantación de identidad.
¿Considera que en Uruguay se tendría que legislar sobre inteligencia artificial?
La regulación sobre inteligencia artificial es algo muy difícil de realizar. Las instituciones tienen que entender mucho cómo funciona y ver si efectivamente no es mejor regular los casos de uso más que la inteligencia artificial en sí. Primero, por el principio de neutralidad tecnológica, por el que generalmente se intenta no regular la tecnología, sino regular cómo se utilizan esas herramientas. También por no afectar la industria del software. Puede pasar que en el momento de hacer una regulación sobre inteligencia artificial se estén poniendo limitaciones para este tipo de industrias y afectarlas. Hay que tener muy claro por qué camino se va a ir. Además, es tan dinámico este mercado que seguramente si se regula algo muy específico, capaz que antes del año ya cae en desuso. Generalmente el proceso burocrático de una ley no va de la mano con los tiempos tecnológicos. Considero que lo mejor es regular determinados casos de automatización, por ejemplo, la clonación de voz. Eso es más certero que estar regulando una herramienta tecnológica o la tecnología directamente.
TE PUEDE INTERESAR: