La irrupción de la Inteligencia Artificial en el día a día de ciudadanos y organizaciones empresariales está condicionando el modo en que actuamos, trabajamos y nos relacionamos. El uso constante de contenidos generados por IA (textos, imágenes y multitud de creaciones audiovisuales, por citar los ejemplos más comunes) forma parte ya de la cotidianidad de una sociedad acostumbrada a consumir masivamente.
Sin embargo, cada vez son más las voces que alertan de un empleo fraudulento –y en ocasiones peligroso– impulsado precisamente por esta Inteligencia Artificial. Expertos de diversos sectores coinciden en afirmar que esta revolución tecnológica traerá consigo cambios radicales e inevitables que plantearán nuevos desafíos a nivel profesional, personal, ético y legal.
Con el fin de abordar estos retos emergentes y analizar su impacto en nuestro entorno más cercano, Grupo Paradell, consultora especializada en la lucha contra el riesgo corporativo y digital, en colaboración con el despacho Martínez Echevarría Abogados, ha organizado la sesión “Los riesgos de la Inteligencia Artificial en el contexto actual”, un encuentro moderado por Eva Aparicio, Senior Manager de Grupo Paradell, en el que se han desgranado las claves sobre un futuro inmediato liderado por la IA.
La Inteligencia Artificial y los derechos de autor
David Navarro, Asociado en Martínez-Echevarría Abogados, ha sido el encargado de trasladar a los asistentes los aspectos clave que, según el Reglamento de Inteligencia Artificial del Parlamento Europeo (RIA), definen esta tecnología. Entre sus características esenciales, el letrado especializado en Propiedad Intelectual e Industrial, aludió a “los distintos niveles de autonomía, la posibilidad de adaptación y de influir en entornos físicos o virtuales, así como a su capacidad para generar resultados a partir de una determinada información de entrada”.
Cuestionado por los riesgos asociados a la Inteligencia Artificial, Navarro detalló los diferentes niveles establecidos en el propio RIA: “En el nivel más bajo de este sistema de riesgos encontramos acciones inofensivas como el desarrollo de filtros que detectan spam o los sistemas que recomiendan determinadas canciones y videos. En un nivel limitado, se situarían aquellas otras acciones que ya requieren mayor transparencia e informar al usuario de su empleo, como serían el uso de chatbots o la IA generativa”. En una posición de riesgo alto, Navarro señaló otras acciones que sí podrían afectar a la propia seguridad del usuario, “como la identificación biométrica remota o el propio reconocimiento de emociones”. Frente a todos estos, se halla el nivel prohibido, “que implicaría la manipulación del comportamiento humano”, añadió.
El abogado culminó su intervención poniendo sobre la palestra un debate ampliamente extendido: “¿Quién es el titular de los derechos de autor en un artículo escrito por un robot?”, para posteriormente sentenciar que “solo en China se ha reconocido la autoría de la Inteligencia Artificial en estos casos. Es un precedente que no se ha dado ni en Estados Unidos ni en Europa”.
La IA y su impacto en la ciberseguridad
Juan Martos, Socio Director de Forensic Tecnológico en Grupo Paradell, por su parte, comenzó su ponencia repasando cómo la IA ayuda al ser humano, “más allá de la generación de textos, imágenes y música”. La automatización de tareas repetitivas y tediosas, la mejora en la precisión de diagnósticos médicos, el desarrollo de sistemas de conducción autónoma, así como la mejora de la seguridad cibernética mediante detección de patrones”, fueron algunas de las labores mencionadas por el experto.
¿Y qué implica su uso en el ámbito de la ciberseguridad? «Los sistemas de Inteligencia Artificial pueden analizar grandes volúmenes de datos para identificar patrones y comportamientos anómalos que podrían indicar actividades maliciosas. Esto permite una detección temprana de amenazas y una respuesta más rápida ante incidentes», añadió Martos.
Sin duda, son muchos los beneficios que un correcto uso de la Inteligencia Artificial puede generar en nuestro día a día. Pero, ¿qué ocurre cuando la intencionalidad es dañina? ¿Cómo usan los delincuentes esta tecnología avanzada para poner en jaque la ciberseguridad del sistema? El Socio Director de Grupo Paradell recordó que los ciberdelincuentes pueden utilizar esta tecnología para automatizar y escalar ataques, como el phishing o la generación de malware personalizado. “Esto les permite lanzar ataques más rápidamente y con menos esfuerzo humano. Además, los algoritmos de IA pueden ser utilizados para identificar y explotar vulnerabilidades en sistemas de forma más eficiente, aprovechando cualquier laguna de seguridad antes de que sea detectada y corregida”.
Martos finalizó su intervención con una reflexión sobre el futuro de la informática forense, asegurando que «la aplicación de técnicas de IA en este ámbito también planteará desafíos legales y éticos, como la privacidad de los datos, la confiabilidad de las pruebas generadas por algoritmos y la necesidad de mantener estándares de integridad y transparencia en los procesos forenses. Depende del ser humano y su capacidad de dirimir entre lo correcto y lo incorrecto para que podamos hacer el mejor uso posible de esta revolución tecnológica”, sentenció.
Si lo desea, puede consultar el contenido íntegro publicado en los siguientes medios: