Le Journal

Vigilance.fr - Redis: four vulnerabilities dated 03/10/2025

Vigilance.fr - Redis : quatre vulnérabilités du 03/10/2025
Un attaquant peut employer plusieurs vulnérabilités de Redis, du 03/10/2025. Voir en ligne : https://vigilance.fr/vulnerabilite/...

ITS Integra annonce l'acquisition de QosGuard

Lundi de la Cybersécurité du 15 décembre : Le Dark Web au-delà des idées reçues

Red Hat étend ses capacités d'inférence IA sur AWS
Red Hat annonce l'extension de sa collaboration avec Amazon Web Services (AWS) dans le but d'activer une inférence d'intelligence artificielle générative (gen AI) d'entreprise en environnement Amazon Web Services, en associant sa plateforme Red Hat AI aux puces IA d'AWS. Avec cette collaboration, Red Hat entend apporter aux décideurs IT la flexibilité dont ils ont besoin pour exécuter des inférences d'IA efficientes et de haute performance à grande échelle, indépendamment du matériel sous-jacent. L'essor de l'IA générative et les besoins en inférences évolutives qui en découlent amènent les entreprises à réévaluer leur infrastructure IT. « D'ici 2027, 40 % des entreprises utiliseront des circuits intégrés personnalisés, notamment des processeurs ARM ou des puces spécifiques à l'intelligence artificielle et à l'apprentissage automatique, pour répondre à leurs besoins croissants d'optimisation des performances, de rentabilité et de calcul spécialisé », prévoit le cabinet IDC[1]. Cette tendance souligne la nécessité de recourir à des solutions optimisées capables d'améliorer la puissance de traitement, d'abaisser les coûts et d'accélérer le cycle d'innovation des applications d'IA de haute performance. Grâce à cette collaboration entre Red Hat et AWS, les entreprises peuvent appliquer une stratégie complète d'IA de nouvelle génération en associant les capacités globales de la plateforme de Red Hat à l'infrastructure cloud et aux puces IA AWS Inferentia2 et AWS Trainium3. Les principaux avantages de ce partenariat sont les suivants : L'intégration du serveur d'inférence Red Hat AI sur les puces IA d'AWS : le serveur d'inférence Red Hat AI Inference Server optimisé par le grand modèle de langage virtuel vLLM pourra fonctionner avec les puces IA d'AWS, notamment AWS Inferentia2 et AWS Trainium3. L'objectif est de fournir une couche d'inférence commune compatible avec n'importe quel modèle d'IA générique en vue d'aider les utilisateurs à conjuguer des performances plus élevées, une latence réduite et une rentabilité accrue pour accélérer leurs déploiements d'IA de production, avec un rapport prix/performance 30 à 40 % supérieur à celui des instances Amazon EC2 comparables architecturées autour d'un processeur graphique (GPU) ; L'activation de l'IA sur la plateforme Red Hat OpenShift : Red Hat a collaboré avec AWS dans le but de développer un opérateur AWS Neuron pour les plateformes Red Hat OpenShift, Red Hat OpenShift AI et Red Hat OpenShift Service sur AWS, une plateforme d'applications entièrement gérée et prête à l'emploi sur AWS, dans l'optique de fournir aux entreprises un moyen plus transparent pour exécuter leurs charges de travail d'IA avec les accélérateurs d'AWS ; Une facilité d'accès et de déploiement : en prenant en charge les puces IA d'AWS, Red Hat permettra aux utilisateurs de Red Hat sur AWS de bénéficier d'un accès amélioré et simplifié à des accélérateurs de haute capacité fortement sollicités. Par ailleurs, Red Hat a récemment annoncé les collections de contenus Ansible Content Collections certifiées amazon.ai pour la plateforme d'automatisation Red Hat Ansible en vue de faciliter l'orchestration des services d'IA en environnement AWS ; Une contribution en amont des membres de la communauté : Red Hat et AWS collaborent afin d'optimiser un plugin pour puces IA d'AWS en amont pour le langage vLLM. En tant que contributeur commercial majeur au modèle virtuel vLLM, Red Hat s'engage à activer vLLM sur AWS pour accélérer les capacités des utilisateurs en matière d'entraînement et d'inférence d'IA. Le modèle vLLM constitue par ailleurs la fondation du cadre d'inférence de grands modèles de langage distribués pour Kubernetes llm-d, un projet open source centré sur la fourniture d'inférences à grande échelle qui est désormais disponible sous la forme d'une fonctionnalité commerciale dans la plateforme hybride Red Hat OpenShift AI 3. Red Hat collabore depuis plusieurs années avec AWS pour permettre aux clients, du…

Puressentiel opte pour le cloud privé avec Tenexa

Vigilance.fr - MIME4J: write access via MIME Messages Headers Injection, analyzed on 03/10/2025

Vigilance.fr - MIME4J : accès en écriture via MIME Messages Headers Injection, analysé le 03/10/2025

Vigilance.fr - Apache Commons Configuration: overload via Usage Patterns, analyzed on 03/10/2025
An attacker can trigger an overload of Apache Commons Configuration, via Usage Patterns, in order to trigger a denial of service. View online : https://vigilance.fr/vulnerability/...

Vigilance.fr - Apache Commons Configuration : surcharge via Usage Patterns, analysé le 03/10/2025
Un attaquant peut provoquer une surcharge de Apache Commons Configuration, via Usage Patterns, afin de mener un déni de service. Voir en ligne : https://vigilance.fr/vulnerabilite/...

Vigilance.fr - Rust astral-tokio-tar: directory traversal via Entry::unpack_in_raw(), analyzed on 03/10/2025
An attacker can traverse directories of Rust astral-tokio-tar, via Entry::unpack_in_raw(), in order to write a file outside the service root path. View online : https://vigilance.fr/vulnerability/...

