Cette célèbre IA a été utilisée par des espions pour lancer des cyberattaques contre 17 organisations !

SOURCE | 8 months ago


Enhance your Social Media content with NViNiO•AI™ for FREE


Grâce aux chatbots, il n’est plus nécessaire de maîtriser la programmation pour développer des logiciels. Cette facilité profite aussi aux criminels, qui peuvent déléguer de nombreuses tâches à l’intelligence artificielle. Anthropic vient de publier un rapport détaillant les abus constatés avec Claude.

Vous connaissez peut-être le terme « vibe coding » qui désigne l'utilisation de l'intelligence artificielle pour générer des lignes de code. En français, cela pourrait se traduire « programmer à l'instinct ». Anthropic vient de créer un nouveau terme, le « vibe hacking », ou le piratage à l'instinct.

Dans un nouveau rapport, le créateur de Claude a révélé avoir étudié les différents usages de son chatbot et découvert que celui-ci a servi à créer des cyberattaques sophistiquées. La firme détaille le cas d'un cybercriminel qui a utilisé Claude Code pour viser 17 organisations. Le chatbot a effectué différentes opérations, comme une reconnaissance automatique, la collecte des données des victimes et l'infiltration des réseaux. Cet individu a ensuite menacé de publier les données si les victimes ne payaient pas une rançon, pouvant dépasser 500 000 dollars.

L'IA au service de l'espionnage international

Un autre utilisateur s'est servi de Claude pour créer des ransomwares (ou rançongiciels), des malwaresmalwares qui chiffrent le contenu d'un ordinateurordinateur et demandent à la victime de payer une rançon pour obtenir le code de déchiffrementdéchiffrement. Les programmes étaient ensuite vendus sur le dark Web entre 400 et 1 200 dollars.

Enfin, le chatbot a aussi servi à une autre arnaque qui prend de l'ampleur : les faux travailleurs nord-coréens. L'IA a pu générer de faux profils pour permettre à des agents de la Corée du Nord de se faire embaucher en télétravail aux États-Unis, notamment par des entreprises du classement Fortune 500. Ils peuvent ainsi espionner ces firmes tout en rapportant de l'argentargent à leur pays. Ces individus n'ont plus besoin de passer des années à s'entraîner pour ce genre de travail, s'appuyant sur l'IA pour la partie technique, mais aussi pour la connaissance de l'anglais et des différences culturelles.

Le rapport montre les dangers de l'intelligence artificielle. Désormais, il est beaucoup plus facile de devenir un cybercriminel. Il n'est même plus nécessaire d'avoir plus que des connaissances techniques rudimentaires. Anthropic indique avoir mis à jour ses mesures de sécurité pour mieux détecter ce genre d'abus.


Enhance your brand's digital communication with NViNiO•Link™ : Get started for FREE here


Read Entire Article

© 2026 | Actualités Africaines & Tech | Moteur de recherche. NViNiO GROUP

_