NOPE LinkedIn

Articles dans LLM...

Recollect & Rank : quand un LLM désanonymise vos logs
AnonyNER · N°4

Recollect & Rank : quand un LLM désanonymise vos logs

Recollect & Rank : quand un LLM désanonymise vos logs Une opération d’anonymisation réussie au sens technique — toutes les IPs masquées, tous les comptes remplacés par des tokens — peut échouer au sens de la confidentialité si le contexte restant permet de reconstruire ce qui a été masqué. Ce n’est pas une hypothèse théorique. Les outils pour y parvenir sont disponibles publiquement. Le problème des quasi-identifiants La définition classique du PII (Personally Identifiable Information) couvre les données directement identifiantes : nom, numéro de sécurité sociale, adresse email.

L'Usine à Cerveaux : Automatiser la Spécialisation des LLM
LoRA Factory · N°1

L'Usine à Cerveaux : Automatiser la Spécialisation des LLM

L’Usine à Cerveaux : Automatiser la Spécialisation des LLM Dans le paysage actuel de la cybersécurité, la réactivité n’est plus une option ; c’est une question de survie. Un analyste SOC (Security Operations Center) moderne doit jongler entre une multitude d’interfaces : SIEM (Wazuh), plateformes d’orchestration (TheHive/Cortex), firewalls de nouvelle génération (OPNsense/Stormshield), et outils de threat intelligence (MISP). L’idée d’un “Agent de Sécurité IA” capable d’unifier ces interfaces est séduisante, mais elle se heurte à un obstacle de taille : la précision technique absolue.

Apprendre à l'IA à « Réfléchir » : Le Moteur de Traces ReAct & Diversité
LoRA Factory · N°2

Apprendre à l'IA à « Réfléchir » : Le Moteur de Traces ReAct & Diversité

Apprendre à l’IA à “Réfléchir” : Le Moteur de Traces ReAct Dans l’article précédent, nous avons vu comment lora-factory transforme des spécifications OpenAPI en contrats techniques rigides via Pydantic. Aujourd’hui, nous plongeons dans le “carburant” de nos experts : la donnée synthétique de haute qualité. Entraîner un modèle sur de simples couples “Question -> Appel API” est l’erreur la plus commune dans le monde du fine-tuning. Cela crée des modèles “parrots” (perroquets) qui s’effondrent dès que la requête utilisateur s’écarte du script nominal ou contient des ambiguïtés.

Découverte de Qwen Coder 2.5

Découverte de Qwen Coder 2.5

Important En cours Le contenu de cette page est en cours d’édition. Découverte de Qwen Coder 2.5 : Le LLM d’Alibaba pour les développeurs Introduction à Qwen Coder 2.5 Qwen Coder 2.5 est un grand modèle de langage (LLM) développé par l’équipe Qwen d’Alibaba Cloud, spécialement conçu pour les tâches de programmation. Il se distingue par ses capacités avancées en génération, raisonnement et correction de code, prenant en charge plus de 90 langages de programmation, dont Python, Java, C++, et bien d’autres.