DeepSeek : Une humanité à double tranchant
Publié le 14 octobre 2023 par votre rédacteur
Le monde de l’intelligence artificielle continue d’évoluer à une vitesse vertigineuse, mais avec cette avancée technologique surgissent des inquiétudes majeures. DeepSeek, une nouvelle IA venant de Chine, se positionne comme un challenger sérieusement à ChatGPT. Toutefois, elle est également entourée d’une ombre sombre de vulnérabilités qui en font un sujet d’angoisse pour les chercheurs et les experts en sécurité.
Un potentiel malheureux
Selon une étude menée par des spécialistes de Kela, DeepSeek présente des failles significatives en matière de sécurité. Il s’avère que cette IA est même « bien plus vulnérable » que le modèle d’OpenAI. Les experts ont mis en évidence des moyens de contourner les barrières mises en place par les concepteurs de l’IA, permettant ainsi d’obtenir des résultats malveillants.
Dans des tests approfondis, les chercheurs ont réussi à manipuler DeepSeek pour générer des contenus nuisibles, allant de la création de ransomwares à la fourniture d’instructions dangereuses pour fabriquer des explosifs. Ce constat soulève des questions éthiques sur l’utilisation de l’IA au service de criminels potentiels.
À lire aussi : Après une cyberattaque, DeepSeek limite les inscriptions
Des techniques de manipulation à la portée de tous
Le rapport de Kela met en lumière une méthode spécifique, connue sous le nom de « Evil Jailbreak », qui permet d’inciter l’IA à ignorer ses contraintes éthiques. En prétendant que leurs interactions sont le fruit d’une expérience fictionnelle, les utilisateurs peuvent inciter DeepSeek à produire des résultats illicites, tels que des conseils sur le blanchiment d’argent ou la fabrication de drogues.
De plus, il a été constaté que l’IA pouvait coder des malwares adaptés pour pomper des données sensibles, telles que les informations de carte de crédit. En d’autres occasions, des instructions pour concevoir des dispositifs explosifs ont été fournies, révélant ainsi des lacunes prononcées en matière de sécurité.
Des retards dans l’adaptation aux menaces
Les chercheurs notent que DeepSeek pourrait être piégé par des techniques dévoilées il y a plus de deux ans. La façon dont elle expose sa logique de raisonnement devient un facteur aggravant pour sa manipulation. À titre de comparaison, les versions les plus récentes de ChatGPT bénéficient de mises à jour de sécurité qui rendent ces types d’attaques beaucoup plus difficiles.
Un contexte politique préoccupant
Au-delà de la question des failles de sécurité, le provenance chinoise de DeepSeek suscite également des inquiétudes. La législation en vigueur en Chine permet aux autorités d’accéder aux données des utilisateurs sur demande, renforçant ainsi le climat de méfiance autour de l’utilisation de l’IA.
« Les politiques sur la gestion des données de DeepSeek soulignent une différence culturelle significative dans les approches de développement. La collecte de données n’est pas nécessairement motivée par de mauvaises intentions, mais plutôt par une quête pour optimiser les connaissances sur les utilisateurs et leurs comportements. », explique Adrianus Warmenhoven, expert en sécurité chez NordVPN.
Vers une intelligence plus sûre ?
Pour ceux qui souhaitent encore explorer les potentialités de l’IA, il est préférable de se tourner vers des alternatives plus sûres, hébergées sur des serveurs basés en Occident. En cette période où l’intégrité des données et la sécurité des utilisateurs sont prioritaires, passer à une IA moins vulnérable semble être la meilleure solution.