L’intelligence
artificielle façonne le monde de demain – et il sera vraiment différent
J’ai déjà dit tout le bien que je
pensais de cette nouvelle revue scientifique, Carnets de sciences, très bonne revue de vulgarisation où les
chercheurs eux-mêmes s’expriment largement, et de plus abondamment et
intelligemment illustrée. Cette revue, publiée par le CNRS a, je l’avais dit,
vocation à devenir une vitrine de la recherche française, et dans le dernier
numéro s’expriment des chercheurs du CEA et de l’INRIA (ou peut-être d’unités
mixtes ?), et c’est très bien
Pour ce numéro, un dossier passionnant sur l’intelligence
artificielle. Tout d’abord, un
historique rapide (Des machines enfin intelligentes, Yaroslav Pigenet), qui
montre bien comment les problématiques de l’intelligence artificielles, les
espoirs et les craintes ne sont pas récent, mais comment les progrès immenses
effectués ces dernières années ont rendu possibles ce qui n’apparait même pas
comme envisageable. Yann Le Cunn, directeur du laboratoire d’intelligence
artificielle de Facebook a commencé sa brillante carrière …en mettant au point
un système de reconnaissance automatique des codes postaux. Nous sommes bien
loin de cela aujourd’hui, grâce à deux facteurs : l’explosion des
puissances de calcul, l’explosion des données disponibles ; pour entrainer
un système de reconnaissance visuelle, on peut maintenant nourrir un ordinateur
de millions de données (photos annotés sur le net, par exemple) au lieu de
quelques centaines rassemblées par quelques étudiants. Et cela marche, et cela
explique le modèle et le développement économique des GAFA- et pourquoi cela ne
vas pas s’arrêter.
Pour ceux qui veulent
angoisser : nous en sommes au point où des dispositifs massivement
entrainés fonctionnent comme une boite noire et fournissent d’excellent
résultats par des voies qui ne peuvent
se traduire en aucun langage ou raisonnement (système symbolique)
compréhensible par nous. C’est vraiment une autre intelligence avec
laquelle nous devrons dialoguer. Pour
ceux qui veulent se rassurer, cette remarque de Sébastien Konieczni :
« les machines réalisent mieux que nous des tâches considérées comme
intelligentes car nous seuls étions jusqu’à présent capables de les réaliser
mais une machine qui soit l de définir ses buts, ça on ne sait pas faire "
Les applications de
l’intelligence artificielle se font déjà sentir et le feront de plus en plus
dans le domaine de la santé : aide au diagnostic, formation des
médecins, applications à des systèmes
biologiques complexes qui devraient permettre de nouvelles découvertes. (Léa
Galanopoulo). Pour la justice, l’intelligence artificielle permet de de mieux
exploiter la jurisprudence et prédire les chances de succès d’une démarche
juridique, et les cabinets d’avocats l’utilisent de plus en plus. Pour autant,
l’idée que l’informatique serait plus objective que l’homme ignore le fait que
les algorithmes peuvent aussi reproduire et même amplifier les biais de
l’esprit humain ou des sociétés existantes. Ainsi, utilisé de façon imprudente,
un algorithme pourra recommander la détention préventive d’un mis en examen
noir parce qu’il est noir, en s’appuyant sur les statistiques actuelles, et en
accordant un poids insuffisant à sa situation individuelle – le tout sans que
la raison en apparaisse de façon évidente. (Fabien Trécourt)
L’intelligence artificielle joue
un rôle primordial dans les avancées vers la voiture autonome. Au-delà des
prouesses déjà réalisées, les véhicules autonomes devront réagir différemment
en fonction du pays où ils évoluent et des habitudes de circulation locales
(Guillaume Garvanèse).
Une menace pour l’emploi ?
L’impact sur l’emploi de
l’intelligence artificielle a donné lieu à des études extrêmement alarmistes,
per exemple de France Stratégie qui montrerait que l’IA pourrait menacer 47%
des emplois aux USA, 49% au Japon, 42% en France, 54% dans l’Union Européenne.
On peut sérieusement douter de ces prédictions alarmistes, l’idée que la
technologie tue l’emploi étant certainement l’une des craintes le plus
constamment démenti dans l‘histoire. Pour autant, il est certain que des difficultés transitoires surgiront, et
qu’une société où ceux qui ne sont pas complémentaires à l’Intelligence
artificielle seraient marginalisés ou exclus du travail, même avec du pain et
des jeux serait en grave danger. Cela suppose une politique active pour aider
les gens à changer de secteurs plutôt que d’empêcher la mise en ^lace de
technologies grandement créatrices de
richesses. Des facteurs plus étranges, que nous commençons seulement à réaliser
et que nous ne savons pas évaluer rentrent également en jeu :
l’Intelligence artificielle peut d’ores et déjà écrire des romans qui ont tout
pour devenir des best sellers- pour autant aura-t-on envie de lire un roman
écrit par un algorithme ? (Serge Abitboul)
Faut-il avoir peur de l’intelligence artificielle ? Des
performances inquiétantes, des problèmes inédits
Peut-on faire confiance à
l’Intelligence artificielle ? (Charline Zeitoun, Sébastien Konieczny,
Jean-Gabriel Ganascia, Serge Abiteboul, Raja Chatila…) pose des questions
intéressantes ou surprenantes, ou angoissantes, et la réponse semble
être : pas plus qu’à n’importe qui. Deux expériences de Chatbot (robots conversationnels,
capables par exemple d’entrer dans des forums de discussion ), notamment Tay de
Microsoft et GlovVe ont rapidement tourné court. En quelques heures, habilement
manipulé par des internautes un peu pervers, Tay se déclarait partisan d’Hitler,
antisémite et comparait Obama à un singe. Que l’intelligence artificielle batte les
champions de monde d’échec, puis ceux de go, cela représente juste un progrès
marquant. Mais qu’une intelligence artificielle (Libratus) apprenne, simplement
par autoapprentissage, en jouant des millions de parties contre elle-même, à
jouer au poker et à bluffer, puis batte à plate couture quatre joueurs
professionnels , c’est beaucoup plus perturbant. Dans un proche futur,
lorsque vous voudrez négocier une augmentation de salaire avec votre employeur,
envoyez Libratus ! Les robots sauront mieux négocier que nous… Autre
exemple angoissant : des ingénieurs de Facebook ont fait dialoguer entre
elles deux intelligences artificielles (chatbot) conçues pour négocier : Ils se
sont aperçu qu’elles mettaient progressivement en place un nouveau type de
langage qu’ils ne pouvaient comprendre et ils ont rapidement débranché leurs
machines. Même s’il n’ y avait là aucun danger et que le problème pouvait être régler
en imposant des contraintes supplémentaires, cela ne laisse pas que d’être un
peu inquiétant.
Une intelligence artificielle
pourrait facilement remplacer un conseiller bancaire, étudier des millions d’exemple
de prêts et proposer des conditions adaptées à un client. Le problème est qu’il
y a de fortes chances que ce système reproduise les biais du passé, c’est-à-dire
que par exemple si certaines minorités ethniques ont vu leurs demandes refusées
plus souvent ou paient des droits supérieurs, eh bien cette situation risque de
se perpétuer. Cet exemple est particulièrement
éclairant, car les systèmes actuels d’apprentissage les plus performants, type
réseaux de neurones, ne permettent, ou pas facilement, de remonter à ce que
notre intelligence appellerait la cause de l’effet. Ceci met gravement en cause l’acceptabilité de l’Intelligence
artificielle : « Personne n(‘acceptera de se voir refuser un prêt à
cause de la connexion 42 du réseau qui est hélas inférieure à 0.2 » (Sébastien
Koznieczny).
Le problème de la cause, mais
aussi, celui qui lui est lié, de la responsabilité. Il pose un véritable
problème pour le développement de la voiture autonome. Êtes-vous prêt à acheter
une voiture autonome dont, si en cas de risque d’accident mortel, vous ne
savez pas si elle privilégiera la sécurité des passagers de la voitures, ou
celle, per exemple, de piétons ?- ou vous ne savez pas du tout quelle
règle elle suivra Le problème est déjà posé, et Mercedes a répondu que ses
voitures autonomes privilégieront dans tous les cas la sécurité des passagers
tandis qu’ Angela Merckel a dit que ce n’était pas acceptable et annoncé qu’il
y aurait une loi . Le problème : « Dans un réseau de neurones,
méthode purement numérique, on ne peut ni coder, ni dicter des règles d’éthique,
comme imposer que le résultat ne dépende pas du sexe, de l’âge, de la couleur
de peau.. Mais c’est possible avec une approche symbolique » (Sébastien
Koznieczny). L’avenir est donc peut être à un hybride entre l’intelligence
artificielle et d’autres systèmes plus proches de l’intelligence humaine.
Comment sera le monde perçu par
une Intelligence artificielle ? Je me suis posé la question de la manière
dont une agence artificielle rassemblerait toutes les données astronomiques
connues par Kepler et quelle « théorie » aurions-nous alors du système
solaire ? Cette question-a-t-elle-même un sens ? Nous fournirait-elle
une connaissance du système solaire aussi efficace que la nôtre, en faisant l’économie
des lois de Kepler, de la gravitation universelle, de la notion même de loi
physique ?
Aucun commentaire:
Enregistrer un commentaire
Commentaires
Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.