
La ley de Inteligencia Artificial de la Unión Europea, que entró en vigor el pasado 1 de agosto, ha marcado la vuelta al trabajo de aquellas organizaciones que emplean tecnologías basadas en IA. En España, son 4 de cada 10 grandes empresas (40,6%) las que ya han puesto en marcha herramientas de IA de acuerdo con el Observatorio Nacional de Tecnología y Sociedad (ONTSI). Ante las infinitas posibilidades que la Inteligencia Artificial, Tokiota, partner español de Microsoft que desarrolla soluciones de negocio basadas en IA, la nube y plataformas de datos, pone el foco en cómo las compañías deben doblar sus esfuerzos para adecuarse al nuevo marco normativo para maximizar el valor y la protección de los datos y así emprender el camino hacia una ventaja competitiva ética y segura.
Para ello, será crucial el empleo de soluciones alineadas con la legislación existente y la puesta en marcha de estrategias de “IA ética”. En palabras de Jose Antonio Lozano, responsable de IA e innovación empresarial en Tokiota, “las empresas que adopten medidas responsables, con el fin de disminuir los sesgos en sus algoritmos y garantizar la ciberseguridad de la información, estarán bien posicionadas para cumplir con la normativa, al tiempo que aumentarán su competitividad.”
La biometría, punto de inflexión en la ética de la IA
En la era digital actual, la biometría, que incluye tecnologías como el reconocimiento facial, de huellas dactilares y de voz, se ha visto potenciada por los avances en IA, permitiendo una identificación y autenticación más precisa y rápida.
La actual regulación afectará especialmente a aquellas compañías que gestionan información sensible como datos biométricos o de salud. Con el fin de cumplir con la normativa, estas empresas deberán llevar a cabo evaluaciones periódicas de sus sistemas, así como implementar acciones que aseguren la transparencia de sus actividades.
Una auditoría para garantizar la calidad del servicio “inteligente”
Durante el proceso de implementación de soluciones de IA se deben realizar evaluaciones meticulosas con el fin de que los modelos no presenten sesgos y respeten las normativas de privacidad de la UE.
Mediante la implementación de soluciones personalizadas, las empresas pueden elaborar informes que detallan el proceso de toma de decisiones de sus sistemas de inteligencia artificial, asegurando la transparencia y la protección de la información.
Asimismo, también es posible el desarrollo de paneles de control que permiten a los programadores y expertos en datos evaluar el grado de confianza y transparencia de sus modelos, detectando errores para cumplir con los estándares éticos más elevados.
Soluciones para la protección de datos
Con la ayuda de las herramientas especializadas en inteligencia artificial, las empresas pueden gestionar de manera segura datos sensibles, asegurando que los principios de privacidad y transparencia se mantengan desde la fase de diseño.
A través de Azure Machine Learning, Tokiota colabora con empresas para desarrollar y aplicar modelos de IA que siguen los principios éticos básicos, en situaciones donde se precisa la utilización y creación de modelos de aprendizaje automático críticos y a escala, con el riesgo sobre el tratamiento de datos sensibles que esto plantea.
Además, este tipo de soluciones también contribuyen a la gestión de los riesgos asociados a la Inteligencia Artificial, lo que mitiga las amenazas potenciales de ciberseguridad y salvaguarda la integridad de los datos.
Como conclusión, las compañías españolas no solo deberán implementar las posibilidades de la Inteligencia Artificial en sus operaciones para favorecer la innovación, sino ser, al mismo tiempo, éticas y respetuosas con la normativa europea.