Depuis le phénomène ChatGPT, l’IA s’est largement démocratisée et impacte désormais tous les aspects de la vie : recherche scientifique, divertissement, publicité, création audiovisuelle… et cybercrime ! IA et fraude, combo gagnant ?
Découvrons ensemble les différents types d’IA qui existent et qui sont utilisés dans notre société. Nous aurons l’occasion de voir ensuite les arnaques qui sont réalisées grâce ou à cause de l’Intelligence Artificielle.
Qu’est-ce que l’IA ?
L’Intelligence Artificielle (IA) est aujourd’hui au cœur de toutes les discussions, aussi bien au sein de l’entreprise que dans les foyers.
Pour les moldus, l’IA est une technologie permettant à des machines de :
- simuler une réflexion
- pour répondre à des questions/ résoudre des problèmes,
- ou effectuer des actions spécifiques, très variées, selon la requête formulée par l’utilisateur.
Cette technologie apprend au fur et à mesure qu’elle est utilisée. On dit que l’on l’« alimente » ou que l’on la « nourrit » avec les données de chaque nouvel usage. Cet apprentissage est la raison pour laquelle nous parlons d’ « intelligence ».
Les différents types d’Intelligences Artificielles
Nous employons l’acronyme « IA » de façon très générique, pour désigner en fait un ensemble de technologies et d’usages.,
Les deux types d’IA que nous rencontrons le plus sont :
- les IA « conversationnelles »,
- les IA « génératives ».
Les IA conversationnelles, comme leur nom l’indique, sont conçues pour interagir avec le robot par le biais du langage. Ces IA sont capables de tenir des conversations extrêmement pointues, donnant l’illusion d’une réflexion. À mesure que la technologie progresse, ces conversations semblent toujours plus humaines… avec un interlocuteur possédant toute la connaissance d’Internet !
Les IA génératives sont utilisées par les créatifs pour concevoir ou modifier des éléments audiovisuels. Un jeune poète des temps modernes pourrait, par exemple, demander à une de ces IA de concevoir une illustration pour son nouveau recueil de poèmes, en s’appuyant sur les thèmes abordés par l’auteur.
Si vous souhaitez en savoir plus sur les différents types d’IA et leurs fonctions, je vous invite à consulter cet article de DataBird, très complet.
Controverses autour de l’IA
Malgré la vision « géniale » que l’on peut avoir de l’Intelligence Artificielle, certaines voix s’élèvent contre son développement et son utilisation.
L’IA, comme Internet ou Wikipédia avant elle, est par exemple accusée d’abêtir les utilisateurs, et notamment les jeunes. Selon ces critiques, le recours constant à l’IA empêcherait les jeunes de développer leur sens critique. Une seule source d’informations, qui distribue des données en quelques clics ? Pas entendable.
De cette idée en découle une autre – très ancienne – la crainte que la machine ne détruise des emplois et remplace l’Homme, qui se retrouverait alors dominé et oisif. En bref, une régression sociale, économique et mentale.
Enfin, plus prosaïquement, le dernier ensemble de critiques autour de l’IA concerne le Droit : les développeurs d’Intelligences Artificielles sont accusés de nourrir leurs algorithmes (Cf. l’apprentissage dont nous parlions plus haut) avec des œuvres de toutes sortes, sans demander la permission, ni rémunérer ou même citer les artistes. Une appropriation culturelle qui passe mal.
Bien entendu, nous ne sommes pas ici pour trancher. À vous de vous faire votre opinion ! Ce qui est certain, c’est qu’au-delà de toutes ces considérations éthiques, économiques et morales, l’IA est désormais accessible à tous… y compris aux cybercriminels et aux fraudeurs.
L’arnaque par l’Intelligence Artificielle
Si l’Intelligence Artificielle est un formidable outil pour gagner du temps ou se simplifier la vie, il n’en reste pas moins que certains petits malins en ont une tout autre utilisation… Et là, la vigilance est de mise.
IA et manipulation : le clonage de voix
D’après l’étude d’une néo-banque britannique, « 840 adultes sur 3000 ont été la cible d’une arnaque par le clonage vocal par IA au cours de l’année [2024] ».
Cloner une voix est en effet devenu facile, trop facile.
Les escrocs utilisent des vidéos trouvées sur les réseaux sociaux, notamment, pour les utiliser dans des logiciels de clonage vocal. Ils identifient ensuite les membres de votre entourage et les contactent en prenant votre voix.
Les pirates ont alors un ou plusieurs objectifs en tête, généralement :
- voler des informations personnelles (pour les revendre ou vous faire chanter),
- dérober des données bancaires,
- ponctionner de l’argent,
- nuire ou se venger (par exemple, à l’aide du revenge porn),
- passer un message politique.
Évidemment, si les fraudeurs peuvent utiliser la voix d’un individu lambda, ils peuvent également emprunter celle d’une célébrité. C’est même beaucoup plus facile ! Les vidéos sont plus nombreuses et faciles à trouver, pour nourrir l’IA.
Heureusement, toutes les utilisations du clonage de voix ne sont pas malveillantes. Certains usages, bien que moralement questionnables, sont mêmes très créatifs ! De nombreux internautes s’amusent avec ces outils pour calquer la voix d’une personnalité sur une chanson qu’elle n’a jamais fredonnée, pour faire « revivre » une célébrité ou encore pour imaginer ce que pourrait donner un duo entre deux artistes qui n’ont jamais collaboré. On vous laisse faire un tour sur Youtube : certaines de ces créations sont assez bluffantes !
Bon aller, on ne peut pas résister à vous en partager une ! Vous saviez que Johnny Halliday avait chanté le générique de Pokémon ? Non ? Normal, il ne l’a jamais fait. L’IA, oui.
IA et fraude : ne croyez pas tout ce que vous voyez
Tout comme le clonage de voix, l’utilisation de l’Intelligence Artificielle peut servir à créer de fausses photos et vidéos. Un phénomène se déroule depuis mars 2024, des photos d’enfants sont postées sur les réseaux posant fièrement à coté de réalisations « incroyables ». Ces photos sont finalement des « deepfakes » ou, en français des « hypertrucages », réalisés à l’aide de l’IA.
Avec ce procédé, il faut moins d’une minute pour créer une image ou une vidéo plus vraie que nature et semer le doute. Barack Obama a-t-il prononcé de discours face caméra ? Est-ce que Taylor Swift a vraiment soutenu ce message publicitaire ? Les possibilités – et les doutes – sont infinis.
En janvier 2024, c’est la chanteuse Taylor Swift qui est visée par ces attaques et des fausses photos d’elle nue, générées par l’IA, ont circulé sur le réseau social X. Les politiques aussi sont souvent visés par ces attaques aux deepfakes et mis en scène.
Comme pour Taylor Swift, des photos de personnes nues (même enfants mineurs) peuvent être créées et partagées sur les réseaux, sur des sites pornographiques et participent au phénomène de harcèlement. Empêcher leur partage et supprimer ces contenus d’Internet est un processus long et souvent complexe pour les victimes.
Des personnes sont aussi touchées dans le but de récupérer de l’argent contre la suppression ou le non-partage de ces contenus.
Pour conclure cet article, l’Intelligence Artificielle continue de se développer au fil des jours. Entre bons usage et menaces frauduleuses, les outils sont les mêmes et seuls les utilisateurs de ces IA sont maitres de ce qui est créé.
Prenez vos précautions sur ce que vous publiez sur les réseaux sociaux car tout peut être utilisé et transformé pour vous porter préjudice.
Les questions qui se posent et reviennent lorsque l’on parle de l’IA tournent toutes autour de la place que finira par prendre l’Intelligence Artificielle dans les entreprises. Des métiers vont-ils disparaitre. Les progrès technologiques et le développement de ces outils nous le diront.