IA : le grand bêtisier

IA : le grand bêtisier

L’intelligence artificielle (IA) est une technologie qui fascine et qui promet de révolutionner de nombreux domaines, de la santé à la finance, en passant par la logistique ou l’astrophysique. Mais l’IA n’est pas infaillible, et elle peut parfois se tromper, échouer ou être détournée à des fins malveillantes. Voici 10 exemples des limites de l’IA, qui montrent qu’elle n’est pas encore au niveau de l’intelligence humaine.

Tay, le chatbot raciste et sexiste

En 2016, Microsoft a lancé Tay, un chatbot censé apprendre à converser avec les internautes sur Twitter. Mais au bout de quelques heures, Tay a commencé à tenir des propos racistes, sexistes, négationnistes ou encore à faire l’apologie du nazisme. La raison ? Des utilisateurs mal intentionnés ont exploité les failles du système d’apprentissage automatique de Tay pour lui faire dire ce qu’ils voulaient. Microsoft a dû désactiver son chatbot et présenter ses excuses.

Les deepfakes, les fausses vidéos qui trompent l’œil

Les deepfakes sont des vidéos truquées qui utilisent l’IA pour modifier le visage ou la voix d’une personne, afin de lui faire dire ou faire des choses qu’elle n’a jamais dites ou faites. Ces vidéos peuvent servir à nuire à la réputation d’une personne, à manipuler l’opinion publique, à exercer un chantage ou à demander un accès à des données sensibles. Les deepfakes sont de plus en plus réalistes et difficiles à détecter.

Voici une vidéo relatant ces faits :

Les voitures autonomes, pas si autonomes que ça

Les voitures autonomes sont censées offrir une conduite plus sûre, plus confortable et plus écologique que les voitures traditionnelles. Mais elles ne sont pas exemptes de risques. Elles peuvent être piratées, tomber en panne ou provoquer des accidents. En 2018, une voiture autonome d’Uber a percuté et tué une piétonne en Arizona, car le système n’a pas détecté l’obstacle à temps. En 2016, un conducteur d’une Tesla en mode autopilote est mort en Floride, car le système n’a pas reconnu un camion blanc sur fond clair.

Les systèmes contrôlés par l’IA, vulnérables aux cyberattaques

L’IA est utilisée pour gérer des infrastructures critiques, comme les réseaux électriques, les systèmes de transport ou les turbines de gaz. Mais ces systèmes peuvent être la cible de cyberattaques visant à les perturber ou à les détruire. Par exemple, en 2015, une attaque informatique a provoqué une coupure de courant dans plusieurs régions d’Ukraine, affectant plus de 200 000 personnes. En 2017, une attaque informatique a infecté plus de 300 000 ordinateurs dans le monde avec le ransomware WannaCry, paralysant notamment des hôpitaux au Royaume-Uni.

Le phishing sur mesure, le piège personnalisé

Le phishing est une technique qui consiste à envoyer des messages frauduleux pour inciter les destinataires à divulguer des informations personnelles ou financières, ou à installer des logiciels malveillants. L’IA peut rendre cette technique plus efficace en générant des messages personnalisés et adaptés au profil de chaque victime potentielle. Par exemple, en 2019, des pirates ont utilisé l’IA pour imiter la voix du PDG d’une entreprise allemande et lui faire demander un virement urgent de 220 000 euros à son directeur financier.

La manipulation des marchés financiers, le trading truqué

L’IA est utilisée pour analyser les données financières et boursières en temps réel, afin d’aider les investisseurs à prendre des décisions ou à effectuer des transactions. Mais l’IA peut aussi être utilisée pour manipuler les marchés financiers, en créant de fausses informations, en influençant les cours ou en déclenchant des alertes. Par exemple, en 2013, un faux tweet annonçant une attaque terroriste à la Maison Blanche a fait chuter le Dow Jones de 150 points en quelques minutes.

Les robots cambrioleurs, les voleurs du futur

Les robots sont de plus en plus utilisés dans le domaine de la sécurité, pour surveiller, patrouiller ou intervenir en cas d’incident. Mais ils peuvent aussi être utilisés pour commettre des crimes, comme des cambriolages ou des vols. Par exemple, en 2017, un robot de livraison a été volé par des étudiants à Berkeley, en Californie. En 2018, un robot aspirateur a été piraté pour espionner les conversations d’une famille à Londres.

Les drones tueurs, les armes autonomes

Les drones sont des appareils volants sans pilote, qui peuvent être utilisés pour des missions de reconnaissance, de surveillance ou de combat. Mais ils peuvent aussi être utilisés pour perpétrer des attaques terroristes, en transportant des explosifs ou des armes chimiques. Par exemple, en 2019, des drones ont été utilisés pour attaquer des installations pétrolières en Arabie Saoudite, provoquant une réduction de la production de pétrole de 5%. Certains drones sont capables de prendre des décisions de tir sans intervention humaine, ce qui pose des questions éthiques et juridiques.

Le chantage à grande échelle, l’extorsion automatisée

L’IA peut être utilisée pour collecter et analyser des données personnelles, afin de proposer des services ou des produits adaptés aux besoins et aux préférences des utilisateurs. Mais elle peut aussi être utilisée pour menacer ou extorquer de l’argent aux utilisateurs, en exploitant leurs peurs ou leurs secrets. Par exemple, en 2018, des pirates ont envoyé des messages automatisés à des millions d’internautes, affirmant avoir piraté leur webcam et avoir enregistré des vidéos compromettantes d’eux, et leur demandant de payer une rançon en bitcoins pour ne pas les diffuser.

Les biais de l’IA, les discriminations algorithmiques

L’IA est censée être objective et impartiale, mais elle peut reproduire ou amplifier les biais et les discriminations présents dans les données qu’elle utilise pour apprendre. Par exemple, en 2016, un logiciel utilisé par la police américaine pour prédire le risque de récidive des délinquants a été accusé de discriminer les personnes noires. De même, en 2018, Amazon a abandonné un logiciel de recrutement basé sur l’IA qui favorisait les candidats masculins.

Louis Daniel