ChatGPT : Entre l’Ingéniosité et la Malice

Les dangers de ChatGPT : désinformation et cyberattaques

Un rapport inquiétant souligne comment les capacités d’OpenAI attirent l’attention des groupes malveillants.

Dans l’univers numérique, un adage dit que « personne ne sait que vous êtes un chien », ou même qu’une intelligence artificielle est derrière une interface. Cependant, cette incertitude peut être exploitée pour des fins sinistres. OpenAI, le développeur de ChatGPT, a récemment dû intervenir pour mettre fin à plusieurs campagnes malveillantes qui utilisaient son outil pour désinformer, influencer ou orchestrer des cyberattaques.

Des opérations inquiétantes à l’échelle mondiale

Les fonctionnalités avancées de ChatGPT ne passent pas inaperçues. Des hackers ainsi que des États aux motivations douteuses exploitent cet outil pour orchestrer des campagnes de désinformation. Des nations telles que la Russie, la Chine, l’Iran et la Corée du Nord font particulièrement usage de ce bot pour des opérations visant à influencer les opinions publiques.

Opérations malveillantes identifiées par OpenAI

Dans un rapport récemment publié, OpenAI a mis en lumière dix campagnes nuisibles qu’elle a repérées depuis le début de l’année. Parmi celles-ci figure l’opération « Sneer Review », largement perçue comme orchestrée par la Chine, qui visait à générer des commentaires favorables sur les réseaux sociaux en faveur du régime chinois.

Un autre exemple est l’opération « Uncle Spam », également attribuée à la Chine, dont l’objectif était de semer la discorde politique aux États-Unis à travers la diffusion de messages contradictoires destinés à désorienter les citoyens. De plus, l’opération « Helgoland Bite » a vu la Russie tenter d’influencer le débat public en Allemagne en appuyant le parti d’extrême droite AfD, tout en critiquant les organismes comme l’OTAN et les États-Unis via des plateformes comme X (anciennement Twitter) et Telegram.

Des arnaques financières alimentées par l’intelligence artificielle

Il ne s’agit pas uniquement d’opérations d’influence. ChatGPT a également été utilisé pour des arnaques, comme celles aperçues au Cambodge, où l’IA générait des messages en plusieurs langues promettant de l’argent pour de faux emplois tels que « liker » des publications. Cette escroquerie pyramidale a conduit de nombreux utilisateurs à perdre de l’argent.

Les actions préventives d’OpenAI

Face à ces menaces, OpenAI a pris les mesures nécessaires. Après avoir détecté ces campagnes malveillantes, l’entreprise s’est engagée à bannir les comptes associés à ces activités nuisibles. De plus, OpenAI continue de renforcer ses stratégies de détection, affinant ses modèles pour anticiper et prévenir de futurs abus.

Source : www.01net.com

Veuillez vous connecter pour commenter.