Le Journal

Networking Toolbox - La boite à outil open source de l'admin réseau
Vous êtes admin réseau et vous en avez marre de jongler entre différents outils pour calculer un masque de sous-réseau, vérifier un enregistrement DNS, ou tester une config DHCP ? Ça tombe bien puisque Networking Toolbox débarque avec tous les outils réseau dont vous avez besoin dans une seule interface plutôt propre et carrée. Le projet est développé par Alicia Sykes , une développeuse qui a déjà pas mal de projets open-source à son actif et son idée c’est de regrouper plus d’une centaine d’utilitaires réseau au même endroit, sans dépendances tierces, sans tracking, et avec une interface qui fonctionne aussi bien sur desktop que sur mobile. Le site propose des outils dans cinq grandes catégories. Du calcul de sous-réseaux, avec des calculateurs IPv4 et IPv6, de la planification VLSM, des outils CIDR pour convertir des masques ou générer des plages IP. Ensuite, les diagnostics réseau : lookups DNS, vérifications TLS, tests de connectivité, analyses HTTP et email. Vous avez aussi des générateurs pour DHCP et DNS, avec création d’enregistrements, validation DNSSEC, et configuration de zones complètes. Et bien sûr, tout un tas d’utilitaires divers pour convertir, valider, et manipuler des données réseau. Ce qui est pratique, c’est que vous pouvez bookmark n’importe quel outil avec un clic droit. Ça le rend accessible offline et l’épingle en haut de votre page d’accueil. Si vous utilisez souvent les mêmes choses, ça évite de naviguer dans les menus à chaque fois. L’interface supporte ausis plusieurs langues, plusieurs thèmes visuels, et se contrôle entièrement au clavier. Niveau techno, c’est du Svelte avec TypeScript, compilé en SvelteKit. Les calculs se font côté client, donc pas de latence serveur et le code est publié sous licence MIT. Vous pouvez donc le déployer sur votre propre infrastructure si vous ne voulez pas utiliser l’instance publique. 3 options principales s’offrent à vous : un conteneur Docker qui se lance avec une ligne de commande, un déploiement sur des plateformes cloud comme Vercel ou Netlify, ou un build statique que vous hébergez où vous voulez. Pour Docker, c’est hyper fastoche. Vous tapez docker run -p 3000:3000 lissy93/networking-toolbox et l’interface est alors accessible sur localhost:3000. Si vous préférez compiler depuis les sources, le repo est ici sur Codeberg . Vous le clonez, vous installez les dépendances avec yarn, et vous lancez le serveur de dev avec yarn dev. Le projet se compile en build statique, en build Node.js, ou avec des adaptateurs pour GitHub Pages et autres hébergeurs statiques… Le plus intéressant, c’est que Networking Toolbox propose aussi une API gratuite, sans clé, sans restrictions CORS. Si vous développez vos propres outils ou scripts d’automatisation réseau, vous pouvez interroger l’API directement sans config particulière pour par exemple, convertir un masque, valider une plage IP, ou générer un enregistrement DNS programmatiquement ! Voilà, si vous administrez des réseaux ou si vous étudiez les infras, testez-le. Je pense que vous gagnerez du temps et vous arrêterez de chercher “subnet calculator” sur Google toutes les cinq minutes. Merci à Lorenper pour l’info !

Elon Musk a trouvé comment sauver la planète avec des satellites IA - Et c'est complétement con
Vous avez déjà vu quelqu’un polluer le ciel avec +10 000 satellites puis proposer d’en lancer des millions de plus pour sauver la planète ? Bienvenue dans l’univers mental dérangé d’Elon Musk, où la solution à la pollution, c’est toujours plus de pollution… mais en mieux, évidemment ! Le 3 novembre dernier, Musk a balancé sur son réseau social de fachos, une idée qui ressemble à du Rick et Morty dans le texte : “Une large constellation de satellites alimentés à l’énergie solaire et dotés d’une IA serait capable d’endiguer le réchauffement climatique en ajustant légèrement la quantité d’énergie solaire atteignant la Terre”. Hein ? C’est une propal qui couterait des trillons de dollars, soit environ 200 ans de budget de la NASA et je vous rappelle quand même que c’est le même gars qui dirigeait le “Department of Government Efficiency” (DOGE) dont la mission était de traquer le moindre dollar de dépense publique inutile. Lol. En plus, les satellites Starlink actuels posent déjà d’importants problèmes, en perturbant notamment les observations astronomiques. La V2 de ses satellites émet quand même 32 fois plus de radiations électromagnétiques que la V1, ce qui fout en l’air pas mal de radio-telescopes. Et maintenant, son plan ce serait d’en ajouter des millions de plus ? Autant éteindre un incendie avec de l’essence. Et puis est-ce que techniquement, ça fonctionnerait ? Hé bien pour réduire le réchauffement climatique de manière significative, il faudrait bloquer environ 1 à 2% du rayonnement solaire qui atteint la Terre. Ça représente une surface de plusieurs millions de km² en orbite, positionnée au point de Lagrange L1 (à environ 2,36 millions de km de la Terre). Pour vous donner un point de comparaison, l’ensemble des satellites Starlink actuels ont une surface totale vraiment ridicule par rapport à ce qui serait nécessaire pour ce projet. Et le temps de développement estimé par les spécialistes pour un tel projet serait d’environ 25 ans. En gros, 25 ans durant lesquels on pourrait continuer à cramer du charbon et du pétrole en se disant “c’est bon, on est sauvé, le bouclier spatial arrive”. J’ai comme un arrière-goût de Don’t Look Up dans la bouche… Et puis il y a surtout ce problème du “termination shock”. Si le système tombe en panne, est saboté pendant une guerre, ou simplement arrêté pour maintenance, ça provoquerait une augmentation brutale et catastrophique des températures. Bref, on aurait créé une dépendance dont on ne pourrait plus se passer sans catastrophe majeure. C’est l’arme climatique parfaite déguisée en solution environnementale. Hé oui, le climat, ça ne marche pas vraiment comme un thermostat… Et au fait, qui contrôlerait ce thermostat planétaire ? Musk ? SpaceX ? Le gouvernement américain ? L’ONU ? Ils nous feraient payer combien pour avoir un peu plus de luminosité sur nos tomates ? Et si bloquer le soleil pour refroidir l’Europe provoque une sécheresse en Afrique, on fait quoi ? On vote ? lol Bah non… Car pour le moment, il n’existe aucun cadre légal international pour gérer ça. L’ Union of Concerned Scientists s’oppose même officiellement au déploiement de la géo-ingénierie solaire parce que ça pose des risques environnementaux, sociaux et géopolitiques inacceptables. L’agence environnementale allemande dit carrément que c’est “hautement risqué et ne représente pas une solution praticable à la crise climatique”. Mais le pire, c’est que cette idée ne résout rien au problème de fond. Le CO2 continuera de s’accumuler dans l’atmosphère et l’acidification des océans continuera. Ce serait juste un pansement spatial sur un cancer planétaire. Quand je pense que pour une fraction du coût de cette constellation de satellites, on pourrait décarboner complètement l’économie mondiale avec du renouvelable, du nucléaire, masse d’isolation des bâtiments…etc. En vrai, on a déjà des tas de solutions qui fonctionnent et qui sont moins chers, mais, bon, on préfère croire en des milliardaires qui se prennent pour des Dieux.…

PROMPTFLUX - Le malware qui demande à Gemini comment échapper aux antivirus
Bon vous savez tous comment marche votre antivirus. Il détecte un malware, il le bloque, et tout revient à la normale. Mais si je vous disais que maintenant, c’est parfaitement possible qu’une heure plus tard le même malware se repointe, sauf que c’est plus le même, parce que son code a changé. Car entre temps, il a demandé à Google Gemini de le réécrire… Bien c’est pas de la science-fiction, hein, c’est ce que décrit un rapport du Google Threat Intelligence Group (GTIG) qui nous présente une nouvelle génération de malwares qui intègrent des LLM directement dans leur exécution. Plus de génération statique du code, c’est le malware lui-même qui appelle une API LLM pendant qu’il tourne, demande des modifications, se réécrit, et repart faire sa besogne. Les deux exemples les plus marquants s’appellent PROMPTFLUX et PROMPTSTEAL . PROMPTFLUX, c’est un dropper en VBScript qui appelle l’API Gemini pour obfusquer son propre code. Il se réécrit dans la base de registre Windows pour persister au reboot, puis demande à Gemini de générer de nouvelles variantes d’obfuscation. Son module interne s’appelle “Thinking Robot” et il interroge Gemini régulièrement du genre “Comment contourner l’antivirus X ? Propose des variantes de mon code pour éviter la signature Y.” Gemini lui répond, le malware applique le conseil, se modifie, et se relance. Comme les antivirus détectent les malwares par signatures ou comportements connus, si le malware change toutes les heures, les signatures deviennent immédiatement obsolètes. L’antivirus a alors toujours un coup de retard. Et PROMPTFLUX n’a même pas besoin d’un serveur C2 pour télécharger de nouvelles variantes puisqu’il génère ses propres variantes localement en demandant à Gemini. GTIG estime que PROMPTFLUX est encore en développement et les échantillons analysés ne montrent pas de capacité réelle à compromettre un réseau. Mais ça reste une preuve de concept active… En gros, quelqu’un, quelque part teste cette approche. PROMPTSTEAL, lui par contre, est déjà opérationnel. GTIG l’attribue à APT28 (FROZENLAKE), un groupe lié au renseignement militaire russe (GRU). Le CERT-UA l’a documenté sous le nom LAMEHUG en juillet dernier et c’est la première observation d’un malware qui interroge un LLM en opération réelle. PROMPTSTEAL de son côté est écrit en Python. Il utilise l’API Hugging Face pour accéder au modèle Qwen2.5-Coder-32B-Instruct . Le malware envoie des prompts encodés en Base64, genre “récupère les infos système” ou “trouve les documents sensibles” et le LLM génère des commandes Windows d’une ligne qui sont ensuite exécutées localement par le malware. Ensuite ce dernier collecte les données et les exfiltre tranquillement. L’astuce donc, c’est que le malware ne contient plus de commandes en dur. Il les génère à la volée selon le contexte comme ça, si l’environnement change, il demande de nouvelles commandes adaptées. Plus de pattern fixe à détecter et chaque exécution est différente. GTIG mentionne aussi d’autres exemples tels que FRUITSHELL, un reverse shell PowerShell public qui contient des prompts pour contourner les protections LLM ou encore PROMPTLOCK, un concept de ransomware en Go qui utilise un LLM pour générer des scripts Lua de chiffrement. Il y a aussi QUIETVAULT, un voleur de tokens JavaScript qui cible GitHub et NPM, puis exfiltre les résultats via des repos publics. Tous ces malwares partagent la même idée : intégrer un LLM dans la chaîne d’exécution. Génération, obfuscation, commandes dynamiques, recherche de secrets… Le LLM devient un composant actif du malware ! Le rapport décrit aussi comment les attaquants contournent les protections des LLM à base d’ingénierie sociale dans les prompts. L’attaquant se fait passer le plus souvent pour un étudiant en sécurité, un participant à un CTF, ou encore un chercheur parfaitement légitime. Le LLM, configuré pour aider, répond alors à toutes les demandes. Dans un cas documenté par GTIG, une tentative a mal tourné pour les attaquants. On le…

MocoLlamma - Ollama gérable depuis iPhone, iPad et Vision Pro
Vous avez installé Ollama sur votre Mac et vous êtes le plus joyeux de tous les mammifères car vous faites tourner Llama 3.x en local comme un chef. Et puis un soir, posé dans votre canapé avec votre iPad de bourgeois capitaliste, vous vous dites que ce serait bien de pull un nouveau modèle. Et là, vous réalisez qu’il va falloir sortir le MacBook, ouvrir un terminal, taper ollama pull mistral, attendre et attendre… Grosse flemme non ? Hé oui, Ollama reste un outil en ligne de commande. C’est génial pour les devs, mais galère pour le reste et vous avez beau avoir de la puissance de calcul dans votre poche avec un iPhone ou un iPad, c’est impossible de gérer vos modèles sans SSH et sans Terminal. Heureusement, MocoLlamma vient combler ce fossé. C’est une app de gestion Ollama pour macOS, iOS, iPadOS, et même visionOS si vous avez ce truc. C’est donc une vraie app native avec interface graphique, développée en Swift et SwiftUI dans laquelle ous ajoutez vos serveurs Ollama, et où vous gérez vos modèles, et vous testez vos LLM via un chat basique. L’app s’organise autour de trois onglets. Le premier, Server, vous permet d’ajouter et de switcher entre plusieurs serveurs Ollama. Vous pouvez ainsi renommer chaque serveur, gérer les connexions, bref, tout ce qu’il faut pour jongler entre votre Mac local, votre serveur, ou votre instance cloud si vous en utilisez une. Le second onglet, Model, affiche tous les modèles disponibles sur le serveur sélectionné. Vous voyez ainsi les infos de chaque modèle, vous pouvez les trier par taille, les ajouter ou les supprimer. Comme ça, plus besoin de taper ollama list pour savoir ce qui tourne. Tout est là, visuellement, avec la possibilité de gérer vos modèles d’un tapotage bien senti. Le troisième onglet, Chat, permet de tester rapidement un modèle. C’est volontairement basique et l’idée n’est pas de remplacer ChatGPT ou Open WebUI, mais juste de vérifier qu’un modèle répond correctement. Genre, vous venez de pull Qwen 3, et vous voulez voir s’il fonctionne avant de l’intégrer dans votre workflow. Hop, quelques questions rapides dans le chat, et vous savez. Il existe bien sûr des tonnes d’alternatives de GUI pour Ollama comme Open WebUI , LM Studio , Jan , GPT4All … Mais aucune ne supporte nativement visionOS ou les iPad / iPhone. Alors que MocoLlamma, si. C’est actuellement la seule app qui vous permet de gérer vos LLM locaux depuis ces appareils Apple… C’est assez niche c’est vrai mais ça peut rendre service. Le nom “MocoLlamma” est ce qu’on appelle un mot valise de “Model”, “Control”, “Ollama”, et “Manage”. C’est moche de ouf, c’est pas super à retenir, mais au moins ça décrit exactement ce que fait l’app. Y’a la version gratuite qui est disponible sur GitHub, mais uniquement pour macOS (c’est sous license MIT) et la version payante, à 1,99 dollars sur l’App Store, supporte macOS, iOS, iPadOS, et visionOS. La différence principale pour l’app macOS c’est surtout les mises à jour automatiques. Vous payez 2 balles pour le confort. Et là, un point crucial, sachez que MocoLlamma ne collecte AUCUNE donnée utilisateur. Bref, cette appli vient combler le trou qui se trouve entre “j’ai installé Ollama” et “je peux gérer mes modèles depuis mon iPhone”. Si vous avez ce besoin, c’est donc à considérer. Merci à Lorenper pour la découverte.

Votre cerveau compresse les images 40 fois mieux qu'un algo

Les poupées russes malveillantes de Curly COMrades

ByeByeDPI - Le "VPN" qui contourne la censure sans rien chiffrer

ChronoFrame - Reprenez le contrôle de vos photos

EuroLLM - Le LLM européen qui tourne sur votre laptop
Faire tourner un modèle de langage européen sur votre machine sans avoir besoin d’un serveur surpuissant branché sur une centrale nucléaire, c’est maintenant possible, les amis ! Hé oui, EuroLLM vient de prouver qu’on pouvait faire tourner un modèle à 9 milliards de paramètres dans un peu moins de 6 GB de RAM sur un simple laptop. Une seule commande Ollama , et c’est parti mon kiki !!! Bien sûr, il est encore loin des gros modèles proprio comme GPT-5 mais c’est le enfin le premier LLM européen que VOUS pouvez faire tourner en local. C’est respectueux de votre vie privée, des droits d’auteurs et c’est gratuit ! Un projet 100% européen EuroLLM, c’est en réalité une coalition de labos européens : Instituto Superior Técnico (Lisbonne), University of Edinburgh , Université Paris-Saclay , Unbabel , et d’autres et c’est financé par Horizon Europe et l’ EuroHPC , et ce modèle supporte les 24 langues officielles de l’UE, plus 11 langues supplémentaires (arabe, chinois, hindi, japonais, coréen, russe, turc…). EuroLLM-9B , le modèle de base, a été entraîné sur 4 trillions de tokens avec le supercalculateur MareNostrum 5 à Barcelone (400 GPUs Nvidia H100) et l’architecture utilise du Grouped Query Attention, RoPE, SwiGLU et RMSNorm, comme tout LLM moderne qui se respecte. Mais il existe d’autres versions comme EuroLLM-1.7B pour smartphones et bientôt EuroLLM-22B pour plus de puissance, ainsi qu’une version vision-language (EuroVLM-9B) et un modèle Mixture-of-Experts (EuroMoE-2.6B). Et surtout c’est sous licence Apache 2.0. Donc l’usage commercial est autorisé, vous pouvez le fine-tuner sur vos données, et les modifications sont libres, sans redevance à payer. Ce n’est pas la première fois qu’il y a des LLM européens mais ils étaient soit sous licence trop restrictives ou un peu trop lourd pour être utilisé localement par les gens normaux comme vous et moi. Maintenant comment l’installer ? La méthode la plus simple, c’est via Ollama : ollama run hf.co/bartowski/EuroLLM-9B-Instruct-GGUF Ollama télécharge le modèle en version GGUF (format optimisé CPU/GPU), et vous pouvez commencer à discuter. Il existe aussi une version pré-packagée alibayram/erurollm-9b-instruct (attention, erurollm avec un “u”), quantized en Q4_K_M pour réduire la taille à 5,6 GB. Si vous préférez Python et Hugging Face Transformers : from transformers import AutoTokenizer, AutoModelForCausalLM model_name = "utter-project/EuroLLM-9B-Instruct" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) inputs = tokenizer("Explique-moi ce qu'est un LLM en français simple", return_tensors="pt") outputs = model.generate(**inputs, max_length=200) print(tokenizer.decode(outputs[0])) Une fois téléchargé, le modèle reste en cache local. Vous pouvez alors l’utiliser offline, sans connexion internet. Et pour les machines avec moins de RAM, la version 1.7B tourne même sur des Raspberry Pi : ollama run cas/eurollm-1.7b-instruct-q8 Alors pourquoi c’est important ? EuroLLM ouvre l’IA européenne à des cas d’usage impossibles avec des API cloud. Par exemple une administration publique ne peut pas envoyer ses documents dans le cloud d’OpenAI… ce serait tout livrer aux américains. Elle peut donc fine-tuner EuroLLM localement. Un journaliste en zone sensible sans connexion fiable peut aussi embarquer le modèle sur son ordi portable. Même un chercheur qui manipule des données médicales confidentielles peut le faire en toute confiance avec EuroLLM puisque tout reste sur sa machine. C’est cool quand même que l’Europe nous file un modèle gratuit qu’on peut installer chez soi et utiliser sans limite. Après c’est vrai que EuroLLM ne bat pas GPT-4 (pas encore) mais il est suffisamment bon pour 80% des cas d’utilisation réels tels que des résumés, de la traduction, des questions-réponses simples, de la génération de code basique. La roadmap prévoit d’ajouter de la vision et de la voix aux modèles. D’ailleurs, comme je vous le disais, EuroVLM-9B…

Le VPN de Surfshark croque encore les prix (promo Black Friday -87%)

