OVHcloud continúa democratizando la IA con nuevas GPU NVIDIA Tensor Core y modelos de IA de última generación

OVHcloud, líder europeo del cloud con presencia mundial, renueva su compromiso con la democratización de la inteligencia artificial en las organizaciones, en línea con sus valores a favor de un cloud abierto, transparente y de confianza. Con el mercado de la IA en pleno auge, la visión de OVHcloud pretende ofrecer a las empresas las capacidades óptimas para sus necesidades de IA a través de una amplia gama de soluciones a diferentes rangos de precios. La propuesta de valor única del grupo tiene como objetivo ofrecer simplicidad en todas las etapas del proceso de la IA, a la vez que aborda las crecientes preocupaciones por la seguridad, la privacidad de datos y los costes, que podrían estar ralentizando la adopción de IA según estudios recientes.

Para impulsar la expansión de la IA en nuevas áreas, OVHcloud ofrece ahora una gama completa de GPU NVIDIA Tensor Core, así como los últimos LLM open source. Entre ellos se incluyen Mixtral 8x22B o Llama 3 listos para usar, con una simplicidad inigualable y en un entorno privado. El grupo continúa desplegando su estrategia, que se centra en los cuatro elementos clave que las empresas necesitan para tener éxito en IA: recursos de cálculo potentes y eficientes, conjuntos de datos optimizados, herramientas de software y talento de vanguardia.

Cálculo acelerado NVIDIA para cada carga de trabajo de IA
Diseñadas estratégicamente para cubrir las necesidades actuales y futuras de los ingenieros de IA, las soluciones de OVHcloud impulsan proyectos que van desde la creación de modelos de IA hasta la inferencia de los últimos modelos de lenguaje de gran tamaño (LLM). De esta manera, el grupo ofrece un porfolio completo de GPU NVIDIA de última generación en el universo de Public Cloud, disponibles bajo demanda en datacenters respetuosos con el medio ambiente, incluyendo las GPU NVIDIA H100 Tensor Core, las GPU NVIDIA L4 Tensor Core y las GPU NVIDIA L40S. Independientemente de si utilizan necesitan aprovisionar y gestionar instancias de GPU por sí mismos o ejecutarlas desde OVHcloud Managed Kubernetes Services, los ingenieros de MLOps pueden beneficiarse de toda la gama de ofertas PaaS de OVHcloud, incluidas las bases de datos gestionadas (como Vector DB, pgvector y Qdrant), Kafka y Object Storage High-Performance.

Cumpliendo con la ambiciosa hoja de ruta de IA, OVHcloud ha añadido las GPU NVIDIA L40S a su universo de Public Cloud, que se suman a las GPU NVIDIA H100 y L4 ya disponibles. Las GPU NVIDIA L40S combinan la potencia de cálculo de la IA con la aceleración de gráficos y de contenidos multimedia más avanzada para dar soporte a una amplia gama de escenarios que van desde la inferencia y el entrenamiento de LLM hasta los gráficos, el renderizado y el vídeo.

Servidores dedicados Bare Metal ahora con GPU NVIDIA L40S
Para satisfacer la necesidad de potencia de la IA en servidores dedicados, OVHcloud también ha lanzado nuevos servidores dedicados Bare Metal con GPU NVIDIA L40S en su núcleo. Disponible en la gama High Grade, el nuevo servidor HGR-AI-2 se dirige a casos de uso como el aprendizaje profundo, el aprendizaje automático y la computación de alto rendimiento. La gama está equipada con un procesador AMD EPYC 9354 en una configuración de doble procesador, que ofrece 64 núcleos y 128 hilos con 384 GB de memoria DDR5 (hasta 2,3 TB). Para abordar cargas de trabajo de IA intensivas, el nuevo HGR-AI-2 cuenta con dos NVIDIA L40S de 48 GB y el servidor puede configurarse bajo pedido con 4 GPU NVIDIA L40S de 48 GB.

«Estamos muy contentos de democratizar aún más la IA para nuestros clientes de Public Cloud y Bare Metal, ofreciendo una amplia gama de GPU NVIDIA seleccionadas estratégicamente al precio ideal para satisfacer una gran variedad de cargas de trabajo de IA, desde el entrenamiento de modelos hasta la inferencia», afirma Yaniv Fdida, Chief Product and Technology Officer de OVHcloud.

Herramientas fáciles de usar para cargas de trabajo de IA
Para simplificar aún más la IA y su adopción por parte de las empresas, las soluciones de IA de OVHcloud están presentes en todas las etapas de la cadena de valor de la IA, desde la idea hasta la producción. Los servicios AI Notebooks, AI Training y AI Deploy son fáciles de usar y actúan como un conjunto de herramientas sin servidor diseñadas para permitir la experimentación con datos, entrenar modelos y desplegarlos en producción. Estas soluciones de software se utilizan en las capas superiores y se basan en tecnologías que cumplen con los estándares de la industria. Están diseñadas para ayudar a los científicos de datos y a los ingenieros de machine learning sin la necesidad de gestionar las complejas cuestiones de la infraestructura y su adaptación a la escalabilidad, todo ello con una facturación por minuto.

Nuevos modelos open source Llama y Mistral disponibles en AI Endpoints
La solución sin servidor OVHcloud AI Endpoints ofrece acceso a una gama de modelos de IA a través de endpoints API, lo que permite dirigirse a usuarios principiantes. Antes de realizar llamadas a la API, los desarrolladores se benefician de un sandbox para probar sus Endpoints. Al igual que las populares soluciones OVHcloud AI Notebooks, AI Training y AI Deploy, AI Endpoints se basa en la infraestructura del grupo, respetando plenamente la confidencialidad de los datos (entrada/salida). El grupo también ha añadido algunos modelos de código abierto especialmente populares, como Mixtral 8x22b y Llama 3, que pueden desplegarse desde el servicio OVHcloud AI Endpoints.

Precios y disponibilidad
Las nuevas GPUs NVIDIA, en particular las NVIDIA H100, L4 y L40S, ya están disponibles en Public Cloud para proyectos de IA.

Los servidores Bare Metal HGR-AI-2 con las GPU NVIDIA L40S ya están disponibles en Francia y Canadá a partir de 2969,99 €/mes.

Los nuevos modelos, entre los que se encuentran Mixtral 8x22b y Llama 3, ya están disponibles a través de OVHcloud AI Endpoints.

Deja un comentario

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.