Ce qu'il se passe.
L’intelligence artificielle (IA) questionne.
Dis-m'en plus, Darius.
Depuis le lancement en mars d’une nouvelle version de ChatGPT, le robot conversationnel aux millions d’utilisateurs d’Open IA, des centaines d’experts alertent sur les risques de l’IA ou demandent une pause de son développement. En face, d’autres chercheurs sont plus optimistes. On te donne les 2 sons de cloche pour que tu te fasses ton avis.
Commence par un récap, steuplé.
Ces IA sont des modèles de langage qui génèrent du texte en prédisant la probabilité du prochain mot à partir de milliards de données ingurgitées. C’est grâce à ces modèles que ChatGPT répond à des questions, fait des phrases et traduit, ou que Midjourney crée des images à partir de descriptions textuelles.
Dac. Que dit la team pessimiste ?
Certains, comme le Canado-British Geoffrey Hinton, ex-Google et un des concepteurs de l’IA, redoutent qu’elles deviennent plus intelligentes que les humains et/ou qu’elles tombent entre les mains de personnes mal intentionnées, pour manipuler des élections par ex. D’autres craignent un boom de cyberattaques et de fake news, des arnaques imitant la voix de nos proches ou encore une surveillance de masse.
Et les optimistes ?
Le Français Yann Le Cun, un des autres fondateurs de l’IA et chef du labo de Meta-Facebook, estime qu’elles peuvent nous "aider" sans vouloir "automatiquement dominer l’humanité". Pour lui, on développera des protections contre les arnaques et les fausses informations. Il pense aussi que les IA sont un outil pour "amplifier l’intelligence et la créativité", et pourraient "conduire à (...) un nouveau siècle des Lumières". Mais optimistes et pessimistes s’accordent sur le fait qu’il faut réguler.
Comment ça ?
Les 2 teams pensent que les IA sont aussi utiles que dangereuses, et donc qu’il faut des réglementations pour les gérer, et des moyens pour les piloter et les rendre plus fiables. D’autres prônent aussi des modèles "plus petits" et donc plus maîtrisables, plutôt que des systèmes géants visant à imiter l’humain.
Et y a des réglementations ?
C’est en cours. L’Union européenne a élaboré l’AI Act, un règlement qui impose aux entreprises d’IA des règles de transparence notamment, mais elle ne l’a pas encore voté. Le Parlement canadien planche aussi sur une loi.
Psst. Pour cette chanson.