L’intelligence artificielle (IA) est-elle dangereuse ?

Le lundi (Monday)22 mai(May 22) 2023 , un compte Twitter vérifié appelé « Bloomberg Feed » a partagé un tweet affirmant qu'il y avait eu une explosion au Pentagone(explosion at the Pentagon) , accompagné d'une image. Si vous vous demandez ce que cela a à voir avec l'intelligence artificielle (IA), sachez que l'image a été générée par l'IA, le tweet étant rapidement devenu viral et déclenchant une brève baisse du marché boursier. Les choses auraient pu être bien pires – un rappel brutal des dangers de l’intelligence artificielle.

Dangers de l’intelligence artificielle

Ce ne sont pas seulement les fausses nouvelles dont nous devons nous inquiéter. Il existe de nombreux risques immédiats ou potentiels associés à l’IA, depuis ceux concernant la confidentialité et la sécurité jusqu’aux problèmes de partialité et de droits d’auteur. Nous examinerons certains de ces dangers liés à l’intelligence artificielle, verrons ce qui est fait pour les atténuer aujourd’hui et à l’avenir, et nous demanderons si les risques de l’IA l’emportent sur les avantages.

Fausses nouvelles

À l’époque où les deepfakes sont apparus pour la première fois, on craignait qu’ils puissent être utilisés à des fins malveillantes. La même chose pourrait être dite pour la nouvelle vague de générateurs d'images IA(AI image generators) , comme DALL-E 2 , Midjourney ou DreamStudio . Le 28 mars(March 28) 2023, de fausses images générées par l'IA du pape François(AI-generated images of Pope Francis) portant une doudoune Balenciaga blanche et profitant de plusieurs aventures, notamment faire du skateboard et jouer au poker, sont devenues virales. (Balenciaga)À moins d’étudier les images de près, il était difficile de distinguer ces images de la réalité.

Si l’exemple du pape était sans aucun doute un peu amusant, l’image (et le tweet qui l’accompagne) du Pentagone(Pentagon) l’était tout sauf. Les fausses(Fake) images générées par l’IA ont le pouvoir de nuire à la réputation, de mettre fin à des mariages ou à des carrières, de créer des troubles politiques et même de déclencher des guerres si elles sont utilisées par les mauvaises personnes. En bref, ces images générées par l’IA peuvent être extrêmement dangereuses si elles sont utilisées à mauvais escient.

Avec les générateurs d’images IA désormais disponibles gratuitement pour tous et Photoshop ajoutant un générateur d’images IA(Photoshop adding an AI image generator ) à son logiciel populaire, la possibilité de manipuler des images et de créer de fausses nouvelles est plus grande que jamais.

Confidentialité, sécurité et piratage

La confidentialité et la sécurité sont également des préoccupations majeures en ce qui concerne les risques liés à l'IA, un certain nombre de pays interdisant déjà ChatGPT d'OpenAI . L'Italie(Italy) a interdit le modèle pour des raisons de confidentialité, estimant qu'il n'est pas conforme au Règlement général européen sur la protection des données(General Data Protection Regulation) ( RGPD(GDPR) ), tandis que les gouvernements de la Chine(China) , de la Corée du Nord(North Korea) et de la Russie l'ont interdit par crainte qu'il ne propage de fausses informations.

Alors pourquoi sommes-nous si préoccupés par la confidentialité lorsqu’il s’agit d’IA ? Les applications et systèmes d’IA(AI apps) collectent de grandes quantités de données afin d’apprendre et de faire des prédictions. Mais comment ces données sont-elles stockées et traitées ? Il existe un risque réel de violation de données, de piratage et d'informations tombant entre de mauvaises mains.

Ce ne sont pas seulement nos données personnelles qui sont menacées. Le piratage de l’IA représente un risque réel – cela ne s’est pas encore produit, mais si des personnes malveillantes pouvaient pirater les systèmes d’IA, cela pourrait avoir de graves conséquences. Par exemple, les pirates pourraient contrôler des véhicules sans conducteur, pirater les systèmes de sécurité de l’IA pour accéder à des emplacements hautement sécurisés et même pirater des systèmes d’armes dotés de la sécurité de l’IA.

Les experts de la Defense Advanced Research Projects Agency ( DARPA ) du (DARPA)ministère américain(US Department) de la Défense reconnaissent ces risques et travaillent déjà sur le projet Garantir la robustesse de l'IA contre la tromperie(Guaranteeing AI Robustness Against Deception) ( GARD ) de (GARD)la DARPA(DARPA) , abordant le problème de fond en comble. L'objectif du projet est de garantir que la résistance au piratage et à la falsification soit intégrée aux algorithmes et à l'IA.

Violation de copyright

Un autre danger de l’IA est la violation du droit d’auteur. Cela ne semble peut-être pas aussi grave que certains autres dangers que nous avons mentionnés, mais le développement de modèles d'IA comme GPT-4 expose tout le monde à un risque accru d'infraction.

Chaque fois que vous demandez à ChatGPT de créer quelque chose pour vous – qu'il s'agisse d'un article de blog sur les voyages ou d'un nouveau nom pour votre entreprise – vous lui fournissez des informations qu'il utilise ensuite pour répondre à de futures requêtes. Les informations qu'il vous renvoie pourraient enfreindre les droits d'auteur de quelqu'un d'autre, c'est pourquoi il est si important d'utiliser un détecteur de plagiat et de modifier tout contenu créé par l'IA avant de le publier.

Biais sociétal et de données

L’IA n’est pas humaine, elle ne peut donc pas être biaisée, n’est-ce pas ? Faux. Les personnes et les données sont utilisées pour former des modèles d'IA et des chatbots(chatbots) , ce qui signifie que des données ou des personnalités biaisées entraîneront une IA biaisée. Il existe deux types de biais dans l’IA : les biais sociétaux et les biais liés aux données.

Avec de nombreux préjugés présents dans la société de tous les jours, que se passe-t-il lorsque ces préjugés deviennent partie intégrante de l’IA ? Les programmeurs responsables de la formation du modèle pourraient avoir des attentes biaisées, qui se retrouveraient ensuite dans les systèmes d’IA.

Ou encore, les données utilisées pour former et développer une IA pourraient être incorrectes, biaisées ou collectées de mauvaise foi. Cela conduit à des biais dans les données, qui peuvent être aussi dangereux que les préjugés sociétaux. Par exemple, si un système de reconnaissance faciale est formé principalement à partir des visages de personnes blanches, il risque d'avoir du mal à reconnaître ceux issus de groupes minoritaires, perpétuant ainsi l'oppression.

Les robots prennent nos emplois

Le développement de chatbots tels que ChatGPT et Google Bard a ouvert une toute nouvelle inquiétude autour de l’IA : le risque que les robots(robots ) prennent nos emplois. Nous voyons déjà les rédacteurs du secteur technologique être remplacés par l'IA, les développeurs de logiciels craignent de perdre leur emploi au profit des robots et les entreprises utilisent ChatGPT pour créer du contenu de blog et de médias sociaux plutôt que d'embaucher des rédacteurs humains.

Selon le rapport 2020 du Forum économique mondial sur l'avenir de l'emploi(World Economic Forum’s The Future of Jobs Report 2020) , l'IA devrait remplacer 85 millions d'emplois dans le monde d'ici 2025. Même si l'IA ne remplace pas les écrivains, elle est déjà utilisée comme un outil par beaucoup. Ceux qui occupent des emplois qui risquent d'être remplacés par l'IA devront peut-être s'adapter pour survivre. Par exemple, les écrivains peuvent devenir des ingénieurs en IA, ce qui leur permettra de travailler avec des outils comme ChatGPT pour la création de contenu plutôt(ChatGPT) que d'être remplacés par ces modèles.

Risques potentiels futurs liés à l’IA

Ce sont tous des risques immédiats ou imminents, mais qu’en est-il de certains des dangers de l’IA les moins probables mais toujours possibles que nous pourrions voir à l’avenir ? Il s’agit notamment de choses comme l’IA programmée pour nuire aux humains, par exemple des armes autonomes entraînées pour tuer pendant une guerre.

Il existe ensuite le risque que l’IA se concentre uniquement sur son objectif programmé, développant des comportements destructeurs alors qu’elle tente d’atteindre cet objectif à tout prix, même lorsque les humains tentent d’empêcher que cela se produise.

Skynet nous a appris ce qui se passe lorsqu'une IA devient sensible. Cependant, même si l'ingénieur de Google , (Google)Blake Lemoine, a peut-être tenté de convaincre tout le monde que LaMDA, le générateur de chatbot artificiellement intelligent de Google, était sensible(LaMDA, Google’s artificially intelligent chatbot generator was sentient) en juin 2022(June 2022) , il n'y a heureusement aucune preuve à ce jour suggérant que c'est vrai.

Les défis de la réglementation de l’IA

Le lundi 15 mai 2020, Sam Altman, PDG d'OpenAI, a assisté à la première audience du Congrès sur l'intelligence artificielle(OpenAI CEO Sam Altman attended the first congressional hearing on artificial intelligence) , avertissant : « Si cette technologie tourne mal, elle peut tourner très mal. » L' OpenAI CO a clairement indiqué qu'il était favorable à la réglementation et a présenté bon nombre de ses propres idées à l'audience. Le problème est que l’IA évolue à une telle vitesse qu’il est difficile de savoir par où commencer en matière de réglementation.

Le Congrès(Congress) veut éviter de commettre les mêmes erreurs commises au début de l'ère des médias sociaux, et une équipe d'experts aux côtés du chef de la majorité au Sénat, Chuck Schumer,(Senate Majority Leader Chuck Schumer) travaille déjà sur des réglementations qui obligeraient les entreprises à révéler quelles sources de données elles ont utilisées pour former leurs modèles et qui. les a formés. Il faudra peut-être un certain temps avant que la manière exacte dont l’IA sera réglementée ne devienne claire, et il ne fait aucun doute qu’il y aura des réactions négatives de la part des entreprises d’IA.

La menace(Threat) d’une intelligence générale artificielle(Artificial General Intelligence)

Il existe également le risque de création d'une intelligence générale artificielle ( AGI ) qui pourrait accomplir toutes les tâches qu'un être humain (ou un animal) pourrait accomplir. Souvent(Often) mentionné dans les films de science-fiction, nous sommes probablement encore à plusieurs décennies d'une telle création, mais si et quand nous créons une AGI , cela pourrait constituer une menace pour l'humanité.

De nombreuses personnalités publiques soutiennent déjà la conviction selon laquelle l'IA constitue une menace existentielle pour les humains, notamment Stephen Hawking , Bill Gates et même l'ancien PDG de Google, Eric Schmidt(Google CEO Eric Schmidt) , qui a déclaré : « L'intelligence artificielle pourrait présenter des risques existentiels et les gouvernements doivent savoir comment s'en assurer. la technologie n’est pas utilisée à mauvais escient par des personnes malveillantes.

Alors, l’intelligence artificielle est-elle dangereuse et ses risques l’emportent-ils sur ses avantages ? Il n'y a pas encore d'heure à ce sujet, mais nous voyons déjà des preuves de certains des risques qui nous entourent à l'heure actuelle. D’autres dangers sont moins susceptibles de se concrétiser de sitôt, voire pas du tout. Une chose est cependant claire : les dangers de l’IA ne doivent pas être sous-estimés. Il est de la plus haute importance que nous veillions à ce que l’IA soit correctement réglementée dès le départ, afin de minimiser et, espérons-le, d’atténuer tout risque futur.



About the author

Je suis un ingénieur logiciel avec plus de deux ans d'expérience dans les applications mobiles et de bureau. J'ai une expertise dans les mises à jour Windows, les services et Gmail. Mes compétences font de moi le candidat idéal pour des tâches telles que le développement d'applications Windows ou la maintenance de clients de messagerie.



Related posts