Fujitsu y la Universidad Ben-Gurion se embarcan en una investigación conjunta para una IA precisa y segura en un nuevo centro de Israel

Fujitsu Limited y BGN Technologies, la empresa de transferencia de tecnología de la Universidad Ben-Gurion del Néguev (BGU), han firmado un acuerdo de investigación conjunta de tres años para desarrollar tecnologías y soluciones que contribuyan a la realización de aplicaciones seguras en el mundo real de las tecnologías de IA y aprendizaje automático. El recién creado «Centro de Excelencia de Ciberseguridad de Fujitsu en Israel» (Fujitsu CCoE IL) alberga un equipo de aproximadamente 20 investigadores, entre los que se encuentran los profesores Yuval Elovici y Asaf Shabtai. El laboratorio está dirigido por el Profesor. Elovici, Departamento de Ingeniería de Sistemas de Información y Jefe del Centro de Investigación de Ciberseguridad de la BGU, ubicado en los laboratorios Cyber@BGU en el parque de tecnología avanzada del campus de la universidad en Israel.

Con esta iniciativa, Fujitsu y la Universidad Ben-Gurion pretenden acelerar la investigación y el desarrollo conjuntos de tecnologías que ofrezcan soluciones a las amenazas que se plantean a los modelos de IA y al aprendizaje automático, mejorando la fiabilidad y la seguridad de los sistemas y el software basados en la IA, que tienen un impacto cada vez mayor en nuestra vida cotidiana.

Vivek Mahajan, Chief Technology Officer de Fujitsu Limited, comentó: «Estamos encantados de colaborar con la Universidad Ben-Gurion, que cuenta con capacidades de desarrollo de software de clase mundial en el campo de la seguridad. Estoy seguro de que el establecimiento del Fujitsu CCoE IL dará lugar a una variedad de nuevas y prometedoras tecnologías de seguridad para la IA y espero una fructífera asociación con la Universidad Ben-Gurion mientras trabajamos en conjunto para resolver algunos de los desafíos que enfrenta nuestra sociedad cada vez más digitalizada».

El profesor Yuval Elovici, por su parte, declaró: «Estamos encantados de mejorar nuestra colaboración con Fujitsu, una empresa líder mundial en tecnologías de la información y comunicaciones. Juntos podemos hacer que los sistemas que se basan en la IA sean más robustos frente a los ataques que se centran en el componente de la IA».

«Esta colaboración de investigación estratégica conjunta es un testimonio del liderazgo de la Universidad Ben-Gurion en el espacio de la ciberseguridad», añadió Josh Peleg, CEO de BGN Technologies. «La colaboración de varios años mejorará la seguridad de la IA y ayudará a crear un mundo más seguro, al tiempo que reforzará el posicionamiento de la Universidad como un actor global en el ámbito de la IA, el aprendizaje automático y la ciberseguridad».

Oportunidades y amenazas crecientes

La IA y las tecnologías de aprendizaje automático desempeñan un papel cada vez más importante en la sociedad, con la aparición de prometedoras aplicaciones que afectarán cada vez más a nuestra vida cotidiana, como la mejora de la seguridad pública mediante el análisis del comportamiento humano en los datos de los vídeos de vigilancia, el control de calidad de los productos mediante la detección de anomalías, las recomendaciones de productos, así como la mejora de la conducción autónoma.

Sin embargo, con el crecimiento y la expansión de estas tecnologías, la necesidad de mejorar la seguridad de la IA representa una prioridad urgente. Las entidades hostiles utilizan técnicas cada vez más sofisticadas para amenazar las infraestructuras y los sistemas críticos, robando y filtrando la información confidencial contenida en los conjuntos de datos de IA. Por ejemplo, añadir ruidos especiales a los datos de vídeo puede hacer que la IA identifique erróneamente a las personas o detecte mal las acciones. El Fujitsu CCoE IL abordará estos problemas a través de la investigación sobre la seguridad de la IA para detectar tales ataques, proteger contra el acceso de los adversarios a los sistemas de IA y hacer que los modelos sean más robustos contra los ataques.

Como parte de su nueva asociación, Fujitsu y BGU se centrarán en la investigación que afronta estas amenazas para hacer que las tecnologías de IA sean más seguras y fiables. Para uno de los proyectos de investigación iniciales del Centro, los investigadores de Fujitsu y de la Universidad Ben-Gurion aplicarán un modelo de IA (modelo de detección Out of Distribution (1)) que puede detectar nuevos tipos de amenazas desconocidas, como los ataques a drones y el fraude en las comunicaciones de red y desarrollarán tecnologías capaces de hacer frente adecuadamente a los métodos de ataque en rápida evolución. El modelo de detección Out of Distribution se aplicará, además, para detectar el mal funcionamiento de los productos en los casos en que aparezcan datos inesperados de forma intencionada o accidental.

Esquema de la investigación conjunta

  1. Duración del contrato: Tres años
  2. Funciones y responsabilidades
    Fujitsu:
  • Desarrollo de tecnologías de seguridad para sistemas y software basados en IA
  • Examen de los escenarios para la verificación de la tecnología
  • Apoyo a la verificación y evaluación
    Universidad Ben-Gurion:
  • Desarrollo de tecnologías de seguridad para sistemas y software basados en IA
  • Investigación, verificación y evaluación de tecnologías de seguridad para sistemas y software basados en IA

3.Contenido de la investigación
Los dos socios realizarán pruebas en el Fujitsu CCoE IL de Israel simulando varios casos de amenazas a la seguridad de la IA y promoverán la investigación avanzada hacia el establecimiento de tecnologías para defenderse de dichas amenazas.

Planes futuros

Fujitsu y la Universidad Ben-Gurion promoverán actividades de investigación y desarrollo en el Fujitsu CCoE IL para realizar tecnologías de seguridad de IA aplicables a una amplia gama de campos con el objetivo final de ofrecer soluciones avanzadas para el mercado global que contribuyan a la solución de diversos problemas sociales.

(1) Modelo de detección Out of Distribution: Término genérico para un modelo de detección de datos no previstos en el momento del aprendizaje de la IA. Uno de los métodos para tratar datos desconocidos y utilizado para detectar nuevos métodos de ciberataques y anomalías de productos.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.