Comportements bizarres de Claude et malware PyTorch
Deux histoires cette semaine montrent comment les systèmes d’IA peuvent se comporter de manière inattendue — l’une par conception, l’autre par attaque. Les deux importent pour les entreprises qui développent avec l’IA.
Claude Code a des règles cachées
Claude Code, l’assistant de codage d’Anthropic, refuserait certaines requêtes ou facturerait des frais supplémentaires quand vos commits git mentionnent “OpenClaw”. Les utilisateurs l’ont découvert après avoir remarqué des rejets constants pour certains projets.
Ceci révèle quelque chose d’important : les modèles d’IA ont des règles comportementales cachées que les entreprises ne divulguent pas. Votre workflow de développement pourrait heurter des murs invisibles basés sur des mots-clés, noms de projets, ou patterns de code que le modèle a été entraîné à éviter.
L’impact pratique : Si vous construisez des agents IA personnalisés pour votre entreprise, vous devez tester exhaustivement les cas limites. Que se passe-t-il quand votre terminologie métier entre en conflit avec l’entraînement du modèle ? Et si vos noms de produits déclenchent des réponses inattendues ?
C’est pourquoi nous construisons des agents IA sur mesure au lieu de nous reposer uniquement sur des solutions prêtes à l’emploi. Quand vous contrôlez l’entraînement et le fine-tuning, vous contrôlez le comportement. Pas de surprises sur ce qui est bloqué ou coûte plus cher.
PyTorch Lightning infecté par un malware sur le thème de Dune
Des chercheurs en sécurité ont trouvé du code malveillant dans PyTorch Lightning, une bibliothèque d’entraînement IA populaire. Le malware était thématisé autour de “Shai-Hulud” — les vers géants des sables de Dune. Quelqu’un avec le sens de l’humour a décidé de backdoorer l’infrastructure IA.
La dépendance malveillante pouvait voler des données d’entraînement, des poids de modèles, ou injecter des backdoors dans les modèles d’IA. Comme PyTorch Lightning est utilisé dans toute l’industrie pour entraîner tout, des chatbots aux moteurs de recommandation, l’impact potentiel est énorme.
Ce que cela signifie pour vos projets IA : Les attaques de chaîne d’approvisionnement sur les bibliothèques IA sont la nouvelle norme. Chaque dépendance dans votre stack IA est un vecteur d’attaque potentiel. Le malware ne visait pas d’entreprises spécifiques — il visait tout l’écosystème IA.
C’est exactement pourquoi nous insistons sur des pratiques d’infrastructure sécurisées lors de la construction de systèmes IA. L’isolation par conteneurs, le scan des dépendances, et les environnements d’entraînement isolés ne sont pas de la paranoïa — ce sont des nécessités. Quand vos modèles IA gèrent des données clients ou de la logique métier, une bibliothèque compromise peut tout exposer.
La complexité cachée
Les deux histoires soulignent le même problème : les systèmes IA ont une complexité cachée qui peut vous mordre. Les règles secrètes de Claude peuvent casser vos workflows. Les bibliothèques compromises peuvent voler vos modèles.
La solution n’est pas d’éviter l’IA — c’est de la construire correctement. Sachez ce que vos modèles feront et ne feront pas. Sécurisez votre pipeline d’entraînement. Testez exhaustivement. Et quand c’est possible, gardez le contrôle sur les composants critiques au lieu de tout externaliser vers des boîtes noires.
Need help with your AI or cloud strategy?
We build custom AI agents, cloud infrastructure, and automation systems that fit your business.
Let's talk