
El Congreso Internacional “Inteligencia Artificial Generativa: retos éticos, jurídicos y sociales ha puesto de relieve que la inteligencia artificial generativa constituye una de las transformaciones tecnológicas más profundas de nuestro tiempo y que, por eso, es indispensable hacer un llamamiento a reforzar los marcos éticos, regulatorios y sociales que acompañan al desarrollo acelerado de la inteligencia artificial generativa.
El encuentro, que reunió los días 10 y 11 de marzo en la Universidad CEU San Pablo de Madrid a más de un centenar de expertos, sirvió para presentar los resultados de 16 investigaciones aplicadas desarrolladas durante 2025 por la Cátedra Internacional ENIA en IA Generativa “Retos y riesgos”, un proyecto interdisciplinar que analiza cómo esta tecnología está transformando ámbitos clave como la salud, el derecho, la educación, la información, el mercado laboral y la gobernanza digital.
Inaugurado por Aleida Alcaide Directora General de Inteligencia Artificial quién destacó que la alianza administración-universidad-empresa es clave para analizar y encarar los desafíos que introduce la IA en la humanidad, y también por David de Francisco, Subdirector General de Fomento y Regulación de la Inteligencia Artificial, ambos del Ministerio para la Transformación Digital y de la Función Pública.
El evento fue clausurado por Josetxo Soria Checa (Government Affairs and Public Policy AI Manager de Google), el Congreso contó además, entre otros, con Juan Gustavo Corvalán Director del IA LAB de la Universidad de Buenos Aires que habló sobre los Agentes de IA y el futuro de esta tecnología, Lorenzo Cotino Hueso Presidente de la AEPD, Manel Carpio Socio de Ciberseguridad de Deloitte experto en ética y regulación IA y responsable de la Cátedra, Carmen Muñoz García Profesor de Derecho Mercantil UCM y Of Counsel de Ceca y Magán y Tritemius , Ángel Gómez de ÁGREDA Autor de ‘Un mundo Falaz’, Cristina Mesa Abogado y Socia del Departamento de Propiedad Intelectual e Industrial de Garrigues, Ricardo J. Palomo, PhD Decano y Catedrático Universidad CEU San Pablo. Director Cátedra MOEVE-Digital , Miguel Ángel Liébanas Mike AI CTO @ GEO Metrics, Richard Benjamins CEO OdiseIA, Borja Adsuara Varela Abogado, profesor de Derecho Digital en la Universidad Complutense de Madrid, Rodrigo Gutiérrez Manager de Human Capital Deloitte quien señaló que “la irrupción de la IA en la toma de decisiones estratégicas obligará a redefinir el liderazgo y el papel del talento humano en la dirección de las grandes organizaciones”. Por su parte Frank Escandell Investigador del grupo de trabajo sobre ética global de la IA de la UNESCO CSO abordó junto a Idoia Salazar, Directora de la Cátedra, el futuro de la IA y en concreto de los Asistentes Universales de IA: “llegaremos a la AAIA antes de 5 años “, concluyó Salazar, pero ¿hasta qué punto vamos a ceder nuestro espacio de toma de decisiones como seres humanos?, ¿sería una garantía habilitar un carnet de conducir para el uso de la IA por ejemplo?.
Investigadores y especialistas debatieron sobre los desafíos que plantea esta tecnología y las implicaciones directas que ya se observan en ámbitos como la medicina, la educación, el derecho, la economía, la información pública o el mercado laboral. Los expertos insistieron en que su desarrollo exige combinar innovación con garantías sólidas para la protección de derechos, la transparencia y la responsabilidad. Igual que tiene un gran potencial, el desarrollo de la IA generativa conlleva una gran responsabilidad por los riesgos asociados que conlleva.
Cinco riesgos de la IA generativa
1. Sesgos, discriminación y opacidad algorítmica. Los expertos advierten de que los sistemas de IA generativa pueden amplificar sesgos existentes y generar nuevas formas de discriminación, especialmente en ámbitos sensibles como la salud, la justicia o la educación. Además, la aparición de fenómenos como las “alucinaciones verosímiles” o la falta de trazabilidad en los modelos, dificultan la identificación de responsabilidades cuando se producen errores o daños. Investigaciones presentadas en el congreso subrayaron la necesidad de impulsar auditorías algorítmicas sistemáticas y estándares de transparencia.
2. Nuevas formas de daño jurídico. En el bloque jurídico se alertó de que los marcos tradicionales de responsabilidad civil resultan insuficientes para abordar riesgos específicos de la IA generativa, como son la generación de deepfakes perjudiciales, la filtración de datos memorizados por modelos, las decisiones automatizadas discriminatorias o el perfilado masivo e invasivo de usuarios. En este contexto, los investigadores abogaron por la “responsabilidad objetiva atenuada”, un modelo en el que los operadores de IA respondan por los daños causados, pero puedan reducir su responsabilidad si acreditan diligencia técnica reforzada (auditorías, evaluaciones de impacto, trazabilidad o seguros tecnológicos.
3. Transformación del empleo y nuevas brechas sociales. En el plano social, las investigaciones anticiparon una “Gran Rotación” en el mercado laboral, con una automatización creciente de tareas administrativas, especialmente en sectores intensivos en conocimiento. Aunque emergerán nuevos perfiles profesionales —como supervisores de IA, especialistas en datos o expertos en ciberseguridad— los investigadores advirtieron de riesgos importantes, como la desaparición de puestos junior que alimenten la formación de futuros expertos, la ampliación de brechas de género o desigualdades en el acceso a capacidades digitales. Por eso, universidades, empresas e instituciones deberán colaborar para formar profesionales capaces de trabajar con IA de forma crítica, responsable y conforme a la normativa.
4. Desinformación y erosión de la confianza democrática. Otro gran desafío identificado fue el uso de IA generativa para crear desinformación sintética, especialmente mediante deepfakes en contextos electorales o mediáticos. Los investigadores alertaron de que estos contenidos pueden erosionar la confianza pública en instituciones, medios y procesos democráticos, generando un entorno informativo cada vez más difícil de verificar.
5. Dependencia tecnológica y bienestar psicológico. Algunas investigaciones detectaron nuevos patrones de dependencia hacia asistentes generativos, particularmente entre jóvenes y colectivos vulnerables. Se identificaron comportamientos en los que se destaca la delegación excesiva de decisiones, la búsqueda compulsiva de validación en sistemas de IA o la sustitución parcial de relaciones humanas por interacciones con máquinas.
Cinco claves para una IA generativa responsable
Durante el congreso, los expertos coincidieron en que los riesgos identificados no implican frenar la innovación, sino diseñar mecanismos que permitan aprovechar el potencial de la tecnología con garantías democráticas y sociales a través de la:
1. Gobernanza tecnológica reforzada: para impulsar auditorías independientes, evaluaciones de impacto ético y mecanismos de trazabilidad en los modelos de IA, así como el empleo de conjuntos de datos diversos y representativos.
2. Regulación adaptable y basada en riesgos: para desarrollar marcos legales que evolucionen al ritmo de la tecnología, en coordinación con la regulación europea emergente. La adaptación del derecho a estas nuevas realidades tecnológicas aparece como una tarea prioritaria para evitar vacíos regulatorios.
3. Educación y alfabetización en IA: para fortalecer la alfabetización digital y algorítmica de la ciudadanía a través de la formación de los ciudadanos, profesionales y responsables públicos para comprender el funcionamiento y las limitaciones de los sistemas generativos, además de establecer obligaciones de transparencia para las plataformas tecnológicas.
4. Protección de colectivos vulnerable: para diseñar sistemas inclusivos que reduzcan las brechas digitales y garanticen la accesibilidad. La sostenibilidad social y la protección de los derechos fundamentales emergieron como principios clave para garantizar que el desarrollo de la inteligencia artificial contribuya a construir sociedades más justas e inclusivas.
5. Transparencia y responsabilidad compartida: pararepartir la responsabilidad entre desarrolladores, empresas usuarias y administraciones públicas. Sólo mediante una cooperación efectiva entre el ámbito académico, las instituciones públicas, el sector tecnológico y la sociedad civil será posible aprovechar el potencial de esta tecnología minimizando sus riesgos.
La IA generativa marcará la próxima década, pero su impacto dependerá de las decisiones que se adopten hoy. En este sentido, las investigaciones pioneras presentadas durante el congreso constituyen uno de los primeros mapas sistemáticos en español sobre las oportunidades y riesgos de esta tecnología, y apuntan a una prioridad compartida por expertos y reguladores: construir una IA que sea innovadora, pero también segura, justa y socialmente responsable.