Intelligence artificielle
Quand les algorithmes décident à notre place : opportunités et risques de l’intelligence artificielle
L’intelligence artificielle (IA) est en vogue depuis les années 1960. Avec l’avènement des technologies d’apprentissage en profondeur (deep learning), les attentes en matière d’algorithmes et de systèmes dits intelligents en général sont devenues plus concrètes. Aujourd’hui, la technologie des algorithmes se trouve pour l’essentiel entre les mains de grandes entreprises américaines, généralement accessible via les services qu’elles offrent.
L’étude TA interdisciplinaire évalue les opportunités et les risques de l’IA sous cinq angles principaux : le monde du travail, la formation, la consommation, l’administration et les médias. Les aspects technologiques, juridiques et éthiques sont traités de manière exhaustive et leurs effets analysés dans ces cinq domaines d’application.
Opportunités et risques
L’intelligence artificielle est un moteur important du virage numérique et s’utilise dans toujours plus de domaines. En raison de son vaste champ d’application, les opportunités et les risques de cette technologie fondamentale ne peuvent être considérés de manière globale ; une « loi sur l’IA » ne se justifie donc pas. En revanche, les dérives et problèmes causés par l’IA doivent être réglés par les lois ou ordonnances existantes ou, le cas échéant, par des mesures volontaires.
Les systèmes d’IA sont à bien des égards plus rapides et souvent plus précis que les êtres humains et pourraient leur permettre d’exécuter certaines tâches complexes beaucoup plus efficacement qu’auparavant. Les systèmes d’IA permettent souvent de mieux adapter les prestations et les offres aux besoins et aux capacités de chaque individu. Cette personnalisation est l’un des grands atouts de l’IA.
De nombreux systèmes d’IA doivent être entraînés avec d’énormes ensembles de données afin d’acquérir les compétences souhaitées. La sphère privée et la protection des données risquent d’être fragilisées par les immenses besoins en données de l’IA. Si les ensembles de données sur lesquelles l’IA se base contiennent des erreurs, les résultats seront également erronés. Les données non équilibrées sont elles aussi problématiques, car si elles conduisent à des résultats mathématiquement corrects mais faussés en termes de contenu, certains groupes de personnes risquent d’être systématiquement désavantagés. Ainsi, les systèmes auto-apprenants de l’IA continuent de se développer et peuvent aboutir à des résultats opaques et incompréhensibles pour leurs auteurs, et surtout pour les personnes concernées.
Recommandations
L’utilisation de systèmes d’IA doit être transparente et facile à identifier afin que les gens sachent qu’ils interagissent avec un système d’IA et non avec un être humain.
Les décisions importantes qui touchent les individus ne doivent pas être déléguées à un système d’IA sans en examiner soigneusement les avantages et les inconvénients. S’il s’agit de questions revêtant une importance pour la sphère privée, le résultat fourni par le système doit être vérifié et justifié par un être humain.
Le recours à l’IA a des conséquences qui vont bien au-delà des implications techniques. Quiconque développe l’IA, l’utilise, ou encore exploite ses résultats, devrait donc également avoir des connaissances en matière d’éthique et de droit et, en outre, être à la fois disposé et capable de s’engager dans une coopération interdisciplinaire avec des personnes représentant d’autres domaines scientifiques.
Liens et téléchargements
Organisation
Durée du projet
D’avril 2018 à mars 2020
Mandataires
- Dr Markus Christen, privatdocent, UZH Digital Society Initiative, Université de Zurich
- Dr Clemens Mader, Département de technologie et société de l’Empa
- Johann Čas, Institut für Technikfolgen-Abschätzung , Österreichische Akademie der Wissenschaften
Groupe d'accompagnement
- Dr. Jean Hennebert, Präsident der Begleitgruppe, Informatikdepartement, Universität Freiburg, Mitglied des Leitungsausschusses von TA-SWISS
- Benjamin Bosshard, Eidgenössische Kommission für Kinder- und Jugendfragen
- Sabine Brenner, Geschäftsstelle Digitale Schweiz, Bundesamt für Kommunikation BAKOM
- Dr. Christian Busch, Staatssekretariat für Bildung, Forschung und Innovation SBFI
- Dr. Christine Clavien, Institut für Ethik, Geschichte und Geisteswissenschaften, Universität Genf
- Daniel Egloff, Staatssekretariat für Bildung, Forschung und Innovation SBFI
- Andy Fitze, SwissCognitive – The Global AI Hub
- Matthias Holenstein, Stiftung Risiko-Dialog
- Dr. Marjory Hunt, Schweizerischer Nationalfonds SNF
- Manuel Kugler, Schweizerische Akademie der Technischen Wissenschaften SATW
- Thomas Müller, Redaktor, Schweizer Radio SRF, Mitglied des Leitungsausschusses von TA-SWISS
- Katharina Prelicz-Huber, Gewerkschaft VPOD, Mitglied des Leitungsausschusses von TA-SWISS
- Prof. Ursula Sury, Hochschule Luzern HSLU
- Dr. Stefan Vannoni, Cemsuisse, Mitglied des Leitungsausschusses von TA-SWISS
Contact
TA-SWISS
info@taswiss.dev.wly.ch