Bonjour-bonjour
L’hideuse affiche figurant Cyril Hanouna sous des traits grossièrement déformés pour ressembler aux portraits antisémites du 3ème Reich est au centre d’une polémique ; pour qu’on évalue la chose voici les deux versions de l’affiche : à gauche l’affiche incriminée ; à droite sa version « rectifiée » après sa dénonciation.
- La question de la responsabilité de la production de ce « visuel » est intéressante : « /au cours de l’émission C à vous/ le député de la France insoumise Paul Vannier a reconnu une « erreur », à la suite de la publication d’une affiche ciblant Cyril Hanouna ... Il a rejeté la responsabilité sur la plateforme Grok d’Elon Musk, utilisée pour concevoir le visuel. » (Lire ici)
- Voilà : ce qui devait arriver est arrivé, à savoir que l’Intelligence Artificielle est désignée « responsable » d’un contenu délictueux. En bref, le visage de Cyril Hanouna a été retouché pour modifier l’aspect de son nez et de ses oreilles, reproduisant ainsi les traits du juif selon les nazis. Pour que le programme d’IA soit jugé « responsable », il a fallu que l’algorithme qui effectue la sélection des traits du visage en fonction d’une demande « neutre » ait été préprogrammé pour donner la priorité aux caricatures en générale et à celle-là en particulier.
- Sinon, il faudrait supposer que c’est la demande qui cible spécifiquement ce genre (« Fais la caricature de Cyril Hanouna sous les traits du juif allemand de 1930 »). Mais alors ce n’est plus le programme d’Elon Musk qui serait en cause, mais bien les concepteurs du projet.
Maintenant, voici deux remarques :
- Admettons que les designers de LFI ne soient effectivement pour rien dans cette production. Il reste que ce n’est pas l’IA qui donne le « bon à tirer » de l’affiche. Si ce dernier existe alors ce sont les gens qui le décrètent qui sont responsables.
- Ensuite, ce cas n’est pas le premier cas du genre. Il y a quelque temps, Microsoft avait testé une IA, une des premières créée. Les testeurs ont pour l’expérimentation « nourri » de textes violemment racistes la base de données. La suite, c’est que l’IA en question a « spontanément » généré des textes racistes, au point que les concepteurs ont dû retirer leur projet.
Une simple enquête de police devrait suffire pour désigner les véritables responsables qui de toute façon sont les humains.
Aucun commentaire:
Enregistrer un commentaire