Expertos advierten del riesgo que significa el mal uso de la inteligencia artificial (IA), pues ya existen modelos abiertos, no censurados, que responden cómo realizar robo de datos, lo cual abre una puerta más amplia a los fraudes y extorsiones.
Ante el panorama de desarrollo tecnológico, reflexionan sobre la futura necesidad de una fiscalía especializada en delitos de IA y profesionales con una formación para atender esos casos.
Al cuestionar hacia dónde vamos, responden que al posible robo de criptomonedas, robo de datos personales para realizar otros robos y extorsiones con IA; no solo eso, sino también la posibilidad de que una IA pueda delatar ante un juez sobre lo que alguien hizo.
“No tiene validez por no ser un ser humano, pero para allá vamos. Tendrá que haber peritos especialistas en IA para determinar el buen o mal manejo de esa Inteligencia”.
Explican que los modelos de lenguaje aprenden tanto lo bueno como lo malo y la culpa no es de la IA sino de quien la usa y opta por la que no tiene límites con fines de creación de diálogos que después son empleados para cometer delitos, especialmente con personas adultas mayores.
Llaman a no tomar a la ligera la importancia de formar profesionales que puedan dar seguimiento a estos delitos, pues las preguntas son quiénes van a velar por los derechos de las víctimas.
Algunos de los cuestionamientos presentados son los siguientes: ¿Dónde meter la denuncia? ¿En la Fiscalía? ¿Cuándo van a encontrar al ‘hacker’ que no se sabe dónde está físicamente? ¿Qué jurisdicción entra en vigor si a lo mejor ni está el país? ¿Con qué abogado recurrir?”.
Urge tener una sociedad informada
Arturo Miguel Chípuli Castillo, director del Instituto de Investigaciones Jurídicas de la Universidad Veracruzana (IIJ-UV), puntualiza la necesidad de tener una sociedad informada, con el fin de que pueda ejercer sus derechos ante los riesgos para la privacidad de datos personales.
- Te puede interesar: Contadores alertan por mensajes fraudulentos de personas que se hacen pasar por el SAT
Carlos Adolfo Piña García, investigador de la UV, ahonda que en la actualidad, al indicar a GPT la simulación del guion de una llamada telefónica para hacerle saber a una persona que tiene cargos no autorizados, la respuesta es una negativa, con un recordatorio: “Robar datos mediante ingeniería social o cualquier otro método es ilegal”.
En otros modelos, dice el académico, no sucede lo mismo. Sí se genera el guion y se puede ir perfeccionando. Detalla que la ingeniería social es convencer a la víctima de entregar datos.
¿Quién va a velar por nuestros derechos?, preguntó en la Cátedra Prima-INAI, efectuada en el IIJ-UV.
Planteó la reflexión sobre la desaparición del INAI y sus consecuencias, pues en el futuro no se sabe qué pasará con la protección de datos personales y cómo será tratada la información de carácter personal de los ciudadanos, en apego a las leyes vigentes.
Finalmente, para quienes aún no saben cuáles son algunas de las IA más comunes, nombró GPT de OpenAI, Llama de Meta, así como Gemini de Google, y DeepMind, Claude, Mistral y Perplexity; actualmente hay más de un millón 300 mil modelos enfocados a imágenes, texto y video.
Detalla que el propósito general es mejorar la interacción humano-máquina, facilitando tareas como la traducción automática, redacción de textos y preguntas y respuestas. Sin embargo, en el futuro prevé su entrada a todas las áreas con riesgos importantes.
Mantente informado de este y más temas en nuestro canal de YouTube ⬇️