Aller au contenu

Partenariat sur l'IA

Un article de Wikipédia, l'encyclopédie libre.

Le Partenariat sur l'IA ou, pour les anglophones, Partnership on AI (dont le nom complet est Partnership on Artificial Intelligence to Benefit People and Society ) est une coalition, à but non lucratif, visant une utilisation responsable de l'intelligence artificielle dans le monde, face aux potentialités et aux preuves d'utilisations abusives ou malveillantes de l'IA (respectivement illustrées par exemple par le deepfake et le double scandale Facebook-Cambridge Analytica/AggregateIQ ou plus récemment par l'utilisation de l'IA pour manipuler le marché des cryptomonnaies en influençant de potentiels investisseurs).

Annoncée en 2016, et regroupant une centaine de partenaires (en 2019), ce groupe se propose de définir des règles de gouvernance et de meilleures pratiques relatives aux systèmes d'intelligence artificielle existants ou émergents. Ce Partenariat veut éduquer le public à propos de l'IA.

C'est l'une des premières initiatives mondiales relatives aux aspects éthiques, moraux, sociaux, économiques, écologiques et juridiques de l'IA. D'autres partenariats de ce type existent à des échelles mondiales ou plus locales, notamment soutenues par le G7 et l'OCDE (Partenariat GPAI, qui se prononce gee-pay).

Au fur et à mesure des progrès dans le domaine de l'intelligence artificielle (IA) et alors qu'approchait le stade d'une intelligence artificielle générale (IAG) apparu le besoin d'un cadre de coopération mondiale sur l'IA, sa régulation et sa gouvernance[1],[2].

Alors que de futurs lanceurs d'alerte s'inquiètent des possibilités émergentes mais concrétisées d'usages malveillants du deepfake, et que se prépare le double scandale Facebook-Cambridge Analytica/AggregateIQ, scandale permis par le vol de données de dizaines de millions d'utilisateurs de Facebook, et l'utilisation d'une IA baptisée Ripon[3] qui semblent avoir permis l'élection de Donald Trump et l'avènement du Brexit[4],[5], puis le Brexit[6]), cette coalition est annoncée publiquement le 28 septembre 2016 par ses membres fondateurs (Amazon, Facebook, Google, DeepMind, Microsoft et IBM), avec les coprésidents par intérim Eric Horvitz de Microsoft Research et Mustafa Suleyman de DeepMind[7],[8],[9],[10].

Apple a rejoint le consortium 4 mois plus tard (en janvier 2017), également comme membre fondateur[11]. C'est Tom Gruber (chargé du développement avancé de Siri au sein du groupe Apple) qui représente le groupe au sein du conseil d'administration du partenariat sur l'IA[12].

En 2019, ce sont plus de 100 partenaires du milieu universitaire, de la société civile, de l'industrie et des organisations à but non lucratif qui ont rejoint ce partenariat[13].

Fonctionnement

[modifier | modifier le code]

En 2017, Terah Lyons rejoint (en octobre) le Partenariat sur l'IA en tant que directrice exécutive fondatrice de l'organisation[14] ; Lyons y apporte son expertise en gouvernance technologique, avec un accent particulier sur l'intelligence artificielle, l'IA et la politique de la robotique. Elle était antérieurement conseillère politique auprès de la directrice de la technologie des États-Unis, Megan Smith.
Lyons est ensuite remplacé par Rebecca Finlay, membre du conseil d'administration du partenariat, en tant que directrice exécutive par intérim avant d'être nommée PDG du partenariat (le 26 octobre 2021).

En 2018, Baidu est la première entreprise chinoise à rejoindre (en octobre) le Partenariat[15].

En 2020, le Partenariat sur l'IA annonce, en novembre, que la base de données des incidents d'IA (AIID)[16] deviendrait une nouvelle entité, à but non lucratif, indépendante et à but spécifique en 2022[17].

En 2021, le 26 octobre, Rebecca Finlay est nommée PDG du partenariat[18].

Démarches similaires

[modifier | modifier le code]
  • Partenariat mondial sur l'intelligence artificielle (GPAI pour Global Partnership on Artificial Intelligence ) : c'est une initiative multipartite lancée en Juin 2020. Ce partenariat est soutenu par le G7 et l'OCDE[19]. L'OCDE après avoir publié une « Recommandation de l'OCDE sur l'intelligence artificielle » a lancé le GPAI et en abrite le secrétariat. L'OCDE a aussi créé un réseau d'experts de l'OCDE sur l'IA (ONE AI), ainsi qu'un Observatoire politique de l'OCDE sur l'intelligence artificielle (devenu une ressource pour le GPAI)[19].
    Selon l'OCDE (2023), le GPAI vise à rassembler et coordonner des experts issus du monde de la science, de l'industrie, de la société civile, des gouvernements, des organisations internationales et du milieu universitaire soutenir la recherche de pointe et les activités appliquées sur les priorités liées à l'IA, en respectant les principes de droits de l'homme, d'inclusion, de diversité, d'innovation et de croissance économique[19]. L'OCDE encadre ainsi (en 2023) quatre premiers groupes de travail sur les thèmes suivants : IA responsable (avec un sous-groupe sur l'IA et la réponse à la pandémie), IA et gouvernance des données, IA et avenir du travail, IA et innovation et commercialisation[19].
    L'OCDE soutient des politiques nationales et cette coopération internationale pour une IA digne de confiance, avec 5 objectifs :
  1. « Investir dans la recherche et le développement de l'IA » ;
  2. « Favoriser un écosystème numérique pour l'IA » ;
  3. « Façonner un environnement politique favorable à l'IA » ;
  4. « Renforcer les capacités humaines et se préparer à la transformation du marché du travail » ;
  5. « une coopération internationale pour une IA digne de confiance ».

Notes et références

[modifier | modifier le code]
  1. (en) Gijs Leenders, « The Regulation of Artificial Intelligence — A Case Study of the Partnership on AI », Becoming Human: Artificial Intelligence Magazine,‎ (lire en ligne, consulté le ).
  2. (en) Bertrand Braunschweig et Malik Ghallab, « Reflections on AI for Humanity: Introduction », dans Reflections on Artificial Intelligence for Humanity, Springer International Publishing, , 1–12 p. (ISBN 978-3-030-69128-8, DOI 10.1007/978-3-030-69128-8_1, lire en ligne)
  3. (en) « The Aggregate IQ Files, Part One: How a Political Engineering Firm Exposed Their Code Base », sur upguard.com, (consulté le ).
  4. (en) Cadwalladr C, « The great British Brexit robbery: how our democracy was hijacked » [PDF], The Guardian, .
  5. (en) Colin J Bennett, « Trends in Voter Surveillance in Western Societies: Privacy Intrusions and Democratic Implications », Surveillance & Society (en), vol. 13, nos 3/4,‎ , p. 370–384 (ISSN 1477-7487, DOI 10.24908/ss.v13i3/4.5373, lire en ligne, consulté le ).
  6. (en-GB) Patrick Foster et Martin Evans, « Exclusive: How a tiny Canadian IT company helped swing the Brexit vote for Leave », sur The Telegraph, (ISSN 0307-1235, consulté le )
  7. Alex Hern, « 'Partnership on AI' formed by Google, DeepMind, Facebook, Amazon, IBM and Microsoft | Technology », The Guardian,‎ (lire en ligne, consulté le )
  8. « AI is ‘Next Big Thing’ to worry about », Financial Times,‎ (lire en ligne, consulté le )
  9. « Amazon, Google, Facebook, IBM, and Microsoft form AI non-profit », ZNet,‎ (lire en ligne, consulté le )
  10. Ben Fox Rubin et Roger Cheng, « The AI Super Friends assemble! (The 3:59, Ep. 115) », CNET,‎ (lire en ligne [archive du ], consulté le )
  11. « Partnership on AI Update », Partnership on AI (consulté le )
  12. Aaron Tilley, « Why Apple Joined Rivals Amazon, Google, Microsoft In AI Partnership », Forbes,‎ (lire en ligne, consulté le )
  13. « New Partners To Bolster Perspective For Responsible AI »
  14. (en-US) « Partnership on AI Announces Executive Director Terah Lyons and Welcomes New Partners - The Partnership on AI », The Partnership on AI,‎ (lire en ligne, consulté le )
  15. « Baidu becomes the first Chinese firm to join US-led A.I. body », CNBC,‎ (lire en ligne [archive du ], consulté le ).
  16. McGregor, « When AI Systems Fail: Introducing the AI Incident Database », partnershiponai.org, Partnership on AI, (consulté le ) : « Avoiding repeated AI failures requires making past failures known. Therefore, today we introduce a systematized collection of incidents where intelligent systems have caused safety, fairness, or other real-world problems: The AI Incident Database (AIID). »
  17. Schwartz, « RAIC Holds First All-Hands Meeting », incidentdatabase.ai, Responsible AI Collaborative, (consulté le ) : « RAIC is the new non-profit behind the Artificial Intelligence Incident Database (AIID) and will be presenting critical safety and social issues through incidents to learn from the past and inspire positive change in the fast-growing AI sector. »
  18. (en-US) « Rebecca Finlay named as CEO: A Letter from Eric Horvitz, Chair of the Board of Directors », Partnership on AI, (consulté le ).
  19. a b c et d (en) « Global Partnership on Artificial Intelligence - GPAI », sur gpai.ai (consulté le )

Articles connexes

[modifier | modifier le code]

Aspects juridiques

Notions générales

Notions techniques

Laboratoires et projets renommés de recherche en intelligence artificielle

Liens externes

[modifier | modifier le code]

Bibliographie

[modifier | modifier le code]
  • Edward Curry, Fredrik Heintz, Morten Irgens et Arnold W. M. Smeulders, « Partnership on AI, data, and robotics », Communications of the ACM, vol. 65, no 4,‎ , p. 54–55 (ISSN 0001-0782 et 1557-7317, DOI 10.1145/3513000, lire en ligne, consulté le ).
  • (en) Gijs Leenders, « The Regulation of Artificial Intelligence — A Case Study of the Partnership on AI », Becoming Human: Artificial Intelligence Magazine,‎ (lire en ligne, consulté le ).
  • Larry Medsker, « AI policy matters », AI Matters, vol. 5, no 1,‎ , p. 17–19 (ISSN 2372-3483, DOI 10.1145/3320254.3320262, lire en ligne, consulté le ).
  • (en) « How to be responsible in AI publication », Nature Machine Intelligence, vol. 3, no 5,‎ , p. 367–367 (ISSN 2522-5839, DOI 10.1038/s42256-021-00355-6, lire en ligne, consulté le ).
  • Abhishek Gupta, Camylle Lanteigne et Victoria Heath, « Report prepared by the Montreal AI Ethics Institute (MAIEI) on Publication Norms for Responsible AI », arXiv:2009.07262 [cs],‎ (lire en ligne, consulté le ).