IA

Cet article te propose un commentaire de colle détaillé sur l’IA, avec de nombreux exemples d’actualité issus de la presse anglo-saxonne. C’est idéal pour réviser avant une colle ou un oral !

La transition après le résumé

Transition : En 2023, le Dr Hinton, qui a créé la technologie qui est devenue le fondement des systèmes d’IA, s’est joint à un groupe qui alerte sur les dangers de l’IA. Il a ensuite quitté Google en affirmant que ces entreprises exacerberont la menace de l’IA. 

Problématique : Dès lors, on peut se demander dans quelle mesure le développement de l’IA représente une menace pour l’humanité ?

Les progrès de l’IA participent activement à l’avancement de la société

L’IA permet de nombreuses avancées dans la médecine

Baseimmune, une start-up biotechnologique britannique, utilise l’IA pour l’aider à prévoir les mutations futures des agents pathogènes, dans le but de créer des vaccins contre le coronavirus, le paludisme, qui seront plus efficaces et qui dureront plus longtemps. Baseimmune a ainsi obtenu un financement de démarrage de 14 millions de dollars de la part de MSD Global Health Innovation Fund pour mettre au point ces vaccins « à l’épreuve du temps » grâce à l’intelligence artificielle.

Le centre médical Golborne, situé dans l’une des zones les plus défavorisées du Royaume-Uni, a dévoilé la création d’un stéthoscope utilisant l’IA. Ce stéthoscope, Eko AI, a été conçu pour détecter les maladies cardiaques en quelques secondes. Cela va révolutionner les diagnostics et réduire considérablement les temps d’attente du NHS, selon les experts. 

Dans une étude publiée en mai 2024 dans la revue Drug Discovery, cinq experts ont montré que les 20 premiers groupes pharmaceutiques mondiaux utilisent désormais tous l’IA pour accélérer la découverte de nouvelles molécules. 67 essais cliniques ont été lancés en 2023 (10 fois plus qu’il y a cinq ans). 

L’IA favorise le développement des innovations

Depuis février 2022, avec la présentation de FourCastNet par Nvidia, l’IA a transformé la gestion des catastrophes naturelles en améliorant la rapidité et la précision des prévisions météorologiques. Contrairement aux modèles traditionnels qui nécessitent de deux à trois heures sur des superordinateurs pour une simulation, les systèmes d’IA comme FourCastNet produisent des résultats en seulement une minute, tout en offrant une précision comparable. Cette avancée permet des alertes plus rapides et plus précises, facilitant ainsi une préparation et une réponse plus efficaces face aux catastrophes naturelles, réduisant ainsi les risques et les dégâts potentiels.

Selon McKinsey, l’IA générative est sur le point de révolutionner le monde du travail en boostant significativement la productivité grâce à ses innovations. En offrant des outils automatisés pour créer et optimiser des processus, l’IA pourrait accroître la productivité du travail de 0,1 à 0,6 % par an jusqu’en 2040. Cette avancée promet une amélioration continue de l’efficacité dans divers secteurs économiques, permettant aux entreprises de réaliser des gains de productivité substantiels tout en stimulant la croissance économique.

L’IA peut révolutionner l’agriculture

Pour le « AI Institute for Resilient Agriculture », l’utilisation de l’IA pourrait permettre l’essor d’une stratégie appelée « agriculture de précision » qui pourrait optimiser la production pour que les cultures poussent dans des conditions favorables. L’idée est que les agriculteurs utilisent des technologies utilisant l’IA (par exemple : des drones qui évaluent les niveaux d’eau ou de pesticides d’un champ) pour cibler précisément les zones problématiques.

Selon le directeur des affaires gouvernementales de l’American Farm Bureau Federation, l’agriculture de précision pourrait réduire le gaspillage d’eau et accroître la productivité, permettant de produire autant qu’il y a 30 ans avec 100 millions d’hectares en moins.

Cependant, les avancées spectaculaires de l’IA posent un risque pour nos sociétés

L’essor des deepfakes constitue une menace pour la démocratie

L’IA a permis l’émergence des deepfakes, c’est-à-dire des photos, des vidéos ou des audios réalisés ou modifiés grâce à l’IA. Ces deepfakes mettent en péril le processus démocratique, car ils peuvent semer la confusion parmi les citoyens/électeurs, stimuler la désinformation, discréditer des personnalités politiques et influencer indûment le résultat des élections.

Un exemple frappant de cette menace est apparu en octobre 2023, lorsque des deepfakes audio faisaient croire que Keir Starmer insultait son personnel pendant le premier jour de la conférence du Parti travailliste en octobre 2023. Bien que les vérificateurs de faits aient déterminé que l’audio était faux, il a dépassé les 1,5 million de visites sur X et a dégradé l’image du Labour pendant cette conférence. 

Les deepfakes audio peuvent également être utilisés pour semer la discorde et inciter à la violence. En février 2024, un deepfake audio du maire de Londres, Sadiq Khan, dénigrant le week-end du souvenir et appelant à des marches pro-Palestine à Londres, a été créé pour ressembler à un enregistrement audio secret. Cet enregistrement est devenu viral sur les médias sociaux et a suscité des commentaires haineux à son encontre.

Les dégâts environnementaux générés par l’IA sont colossaux

L’Agence internationale de l’énergie estime que la quantité d’énergie utilisée par ChatGPT pour répondre à chaque demande est de 2,9 wattheures (Wh), soit 10 fois plus qu’une recherche sur Google.

Le refroidissement des centres de données donne également une soif incroyable aux chatbots d’IA. En 2023, une autre étude de l’université américaine du Colorado avait calculé que poser 25 questions à ChatGPT coûtait un demi-litre d’eau. De quoi atteindre des millions de litres si tu multiplies cela par ses 200 millions d’utilisateurs.

Le défi posé par l’IA est clair. Selon International Energy Agency (IEA), la demande des centres de données va pratiquement doubler d’ici à 2026, passant de 460 TWh à 1 000 TWh. Le risque est que le boom des centres de données stimule la construction de nouvelles centrales électriques au gaz. Par exemple, Microsoft est en train de construire une centrale électrique au gaz à Dublin pour fournir une alimentation de secours.

L’IA menace également certains emplois

Dans son rapport publié en janvier 2024 (« Gen-AI: Artificial Intelligence and the Future of Work »), le Fonds monétaire international s’inquiète de l’impact potentiel de l’intelligence artificielle sur l’emploi. L’organisation suggère que près de 40 % des emplois dans le monde seront affectés par les technologies de l’IA et qu’environ 60 % de ces emplois se trouveront dans les pays à revenu élevé.

Le FMI prévient qu’environ la moitié d’entre eux pourraient bénéficier d’une augmentation de la productivité, ce qui exacerberait les inégalités sociales dans le monde.

La nécessité croissante de réguler l’IA pour une sécurité mondiale

Un pas vers une gouvernance mondiale : AI Safety Summit

Le Sommet sur la sécurité de l’IA (AI Safety Summit), organisé par le gouvernement britannique les 1er et 2 novembre à Bletchley Park, marque une avancée significative, car c’est la première fois que les décideurs mondiaux se réunissent pour discuter sérieusement de l’IA.

Ce sommet reflète une prise de conscience croissante des défis et des opportunités que représente l’intelligence artificielle, mettant en lumière l’importance de régulations et de collaborations internationales pour s’assurer que les développements de l’IA sont sécurisés et bénéfiques pour la société.

La réglementation pionnière de l’Union européenne

Le règlement sur l’IA (AI Act) de l’Union européenne constitue un cadre réglementaire crucial pour évaluer les risques posés par les technologies d’IA. Ce cadre inclut quatre niveaux de risque : inacceptable, élevé, limité et minimal. L’importance de ce règlement réside dans sa capacité à classifier les technologies d’IA selon leur potentiel danger pour la santé, la sécurité et les droits fondamentaux des individus. 

Parallèlement, l’UE ou des initiatives comme le projet Mockingbird de McAfee visent à détecter et à exposer les altérations audio dans les vidéos, montrent des efforts concrets pour lutter contre les deepfakes. Les entreprises fournissant des services de génération de voix par IA prennent également des mesures pour garantir que leurs systèmes puissent identifier les audios altérés, contribuant ainsi à une surveillance proactive de ces technologies.

Le projet de loi britannique sur l’IA

Le projet de loi britannique sur l’IA, attendu plus tard cette année, mettra en œuvre des accords volontaires existants entre les entreprises et le gouvernement en les rendant juridiquement contraignants. Le Parti travailliste, sous la direction de Keir Starmer, prévoit d’introduire des règles formelles pour l’IA, comme indiqué dans son manifeste électoral.

Le gouvernement de Starmer s’est engagé à introduire une réglementation contraignante pour les entreprises développant les modèles d’IA les plus puissants et à légiférer pour interdire les deepfakes sexuellement explicites. En ciblant les modèles d’IA les plus puissants, le Parti travailliste imposerait des restrictions plus strictes à des entreprises telles qu’OpenAI, Microsoft, Google, Amazon et des start-up d’IA, comme Anthropic, Cohere et Mistral.

Conclusion

Dans l’ensemble, alors que le monde passe de l’IA étroite à l’intelligence artificielle générale, il prend conscience de l’arme à double tranchant qu’elle représente. Les dangers ne doivent pas être sous-estimés et la réglementation doit s’articuler autour de deux axes, à savoir la transparence et l’accès. Le désormais célèbre logiciel Pegasus est un exemple éloquent de la mauvaise utilisation potentielle de la technologie. Il ne faut pas que ce soit le cas pour l’intelligence artificielle. 

 

Si tu souhaites continuer de lire sur l’intelligence artificielle, rendez-vous sur cet article ou sur celui-ci !