jeudi 30 novembre 2023

I.A. : la montée des périls ? – Chronique du 1er décembre

Bonjour-bonjour

 

Ceux qui n’ont rien compris à l’aller-retour de Sam Altman à la tête de OpenAI ignorent que les opérateurs en Intelligence artificielle sont divisés en deux clans : ceux qui sont long-termisme, et qui cherchent à éviter les risques existentiels pour l’humanité - dont l’IA; et les "altruistes efficaces", qui veulent rationaliser au maximum l’impact des découvertes de l’IA.

On sait que Elon Musk fait partie des long-termistes ainsi que le conseil d’Administration d’OpenAI – lequel a été remplacé après le retour de Sam Altman.

« L’affaire Sam Altman (adepte de cette attitude) a montré que les catastrophistes de l’intelligence artificielle (= les long-termistes) ont perdu une bataille » peut-on lire dans le Wall Street Journal.

« Le renvoi de Sam Altman a montré l’influence de l’altruisme efficace et de l’idée associée de ralentir le développement de l’IA, mais son retour a montré les limites de ce courant », écrit le Wall Street Journal. « Les catastrophistes de l’IA ont perdu une bataille », renchérit l’analyste des secteurs médias et tech Benedict Evans, dans une tribune dans le Financial Times. (Art. cité)


Nous regardons cet épisode et le contexte qui le sous-tend avec étonnement un peu comme les vaches regardent passer les trains. C’est qu’il est rare de voir les créateurs et les décideurs de pareilles innovations appuyer brutalement sur le frein : le développement de l’énergie nucléaire n’a pas suscité pareil réticence, du moins chez le PDG d’EDF.

On se prend à penser que l’IA doit être particulièrement dangereuse. Pas seulement en raison du risque de voir les robots prendre le pouvoir sur les hommes (un peu comme Hal 9000, le Grand Ordinateur de 2001 Odyssée de l’espace) ; mais on s’attend surtout à une vague de licenciement sans précédent, et pas dans 50 ans : tout de suite, aujourd’hui même.

Aucun commentaire:

Enregistrer un commentaire