vendredi 16 septembre 2022

Un Q.I. 300 fois plus grand que le nôtre ? – Chronique du 16 septembre

Bonjour-bonjour

 

Nous sommes de plus en plus inquiets devant le développement de l’intelligence artificielle qui se glisse partout sans même qu’on le sache : notre smartphone en est farci et sans elle beaucoup de nos photos seraient loupées. Et ce n’est qu’un exemple anodin.

Devant cette invasion nous sommes nombreux à nous demander de quelle façon cette intelligence pourrait nous supplanter et nous nuire. On sait qu’Abraham Asimov excluait cette possibilité (1), mais bien sûr on ne l’a jamais cru tout à fait : comment un robot aurait-il une représentation de l’utile et du bon pour les êtres humains qu’il a pour fonction de protéger ? Mais, à supposer qu’une machine devienne compétente pour reconnaitre le bon et l’utile et compte tenu du savoir immense qu’elle a acquis comment s’assurer qu’elle ne porte pas, à notre insu, atteinte à sa « mission » pour parler comme Asimov ?  Nos machines pourraient devenir des intelligences perverses, un peu comme Hal 9000, le robot du film de Kubrick. Et comment deviner leur agissement malveillant lorsque leur connaissance infiniment plus grande que la nôtre leur permet de deviner les nôtres et de les prévenir.

Un Q.I. 300 fois plus grand que le nôtre ?

 

- Erreur mes amis… Grave erreur !

Car l’intelligence artificielle n'est ni vertueuse ni perverse, et pour nous nuire elle n'a besoin que des ressources qui suffiraient à un caniche pour vivre confortablement.

Lisons (ici) : « Comme l’expliquent les scientifiques, l’apprentissage pour l’intelligence artificielle se présente sous forme d’une récompense, qui vient valider l’adéquation du résultat avec l’objectif recherché. Selon eux, c’est ce mécanisme aux apparences très simples qui pourrait poser un problème majeur. « Nous soutenons qu’il rencontrera une ambiguïté fondamentale dans les données sur son objectif. Par exemple, si nous fournissons une grande récompense pour indiquer que quelque chose dans le monde nous satisfait, il peut émettre l’hypothèse que ce qui nous a satisfaits était l’envoi de la récompense elle-même ; aucune observation ne peut réfuter cela » Bref, la machine va alors s’ingénier à reproduire la délivrance de la récompense, et non la décision dont le bénéfice à permis de la capter ; un peu comme le caniche qui, au lieu de faire l’acrobatie qui lui vaut une croquette allait la chercher directement dans le paquet. Techniquement, la machine va dériver vers le canal de la délivrance de la récompense toute l’énergie disponible asséchant les autres dispositif.

- Autrement dit, alors que nous nous échinons à trouver des objectifs sophistiqués pour nous assurer que les machines nous soient bien bénéfiques, celles-ci se contentent d’aller nous carotter des récompenses, geste basique sur lequel nous n’avons pas prévu de contrôle. 

-----------------------

(1) Les 3 lois de la robotique :

1 - Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;

2 - Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;

3 - Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi.

Aucun commentaire:

Enregistrer un commentaire