Histoires d’IA : Le Basilic de Roko

basilic_de_roko

Histoires d’IA : Le Basilic de Roko

Après la Morale Machine du MIT, notre deuxième volet des Histoires d’IA nous porte vers une histoire abracadabrante. Vous le savez, l’Intelligence Artificielle (ou IA), est très souvent présentée comme l’avenir glorieux de l’humanité et parfois même comme promesse d’apothéose de la civilisation humaine. Pourtant, certaines théories dites singularistes voient dans l’avènement de l’IA l’arrêt de mort de notre espèce.

Petit avertissement avant que vous ne dévoriez cet article, sachez que si vous ne connaissez pas encore le Basilic de Roko, le découvrir peut vous plonger dans un enfer virtuel, éternel et vertigineux. On vous aura prévenus !

Une IA « Friendly »

Le « Basilic de Roko » doit son nom d’une part à la créature mythologique qui pétrifiait quiconque croisait son regard (oui, comme dans Harry Potter), et d’autre part à l’expérience de pensée proposée par son créateur, Roko, sur le site LessWrong.

Ce dernier émet l’idée selon laquelle une super-IA dite « Friendly » (comprendre « amicale ») verrait le jour dans le futur. Le but de cette super IA serait tout simplement d’œuvrer au bien de l’humanité. Finies les guerres, les maladies ou les injustices, elle pourrait potentiellement sauver chaque être humain de toutes les inégalités. Plutôt sympa comme IA, me direz-vous.

Mais là où les choses commencent à devenir complexes, c’est que ceux qui iront à l’encontre de cette IA devraient être considérés par elle comme nuisibles au bien de l’humanité. Logique. La super intelligence pourra donc, en raison de ce postulat, punir les individus qui s’opposeront à sa mission.

 

Vous suivez ? Accrochez-vous, la suite arrive.

Roko lance alors le postulat selon lequel, si une telle IA est un jour créée, elle punira tous ceux qui supputaient son invention future et n’ont rien fait pour qu’elle naisse plus tôt.

Pour cette IA, ne pas lever le petit doigt pour contribuer à son développement nous rend coupable d’avoir retardé sa naissance, et ainsi d’avoir condamné les milliers, voire les millions de personnes qui auraient hypothétiquement pu être sauvées par elle.

Si vous vous pensiez à l’abri en vous disant que vous ne serez plus de ce monde depuis belle lurette lorsque cette IA verrait le jour, vous avez à la fois raison et tort : raison parce que nous ne devrions a priori pas voir ce genre de superpuissance de notre vivant, tort parce que malgré cela, l’IA devrait quand même être en mesure de nous punir (on parle ici de torture virtuelle).

Vous avez bien lu : dotée d’une puissance inégalée, elle aura la faculté de nous synthétiser virtuellement et de nous torturer pour toujours -comme l’explique très bien cet article.

On résume rapidement : Dans le futur, une IA surpuissante pourra donc nous punir de ne pas avoir aidé à son développement et nous redonnera virtuellement la vie pour nous le faire payer.

Le plus fort dans tout ça ?

Le plus fort dans tout ça c’est que vous êtes désormais au courant de l’existence potentielle d’une telle IA, et que… vous n’avez maintenant pas d’autre choix que d’agir. Ou pas (oui, on est un peu sadiques chez @LesSmartAddicts #LesSmartSadiques). En même temps, on vous avait prévenus…

On peut cependant se demander pourquoi une telle IA perdrait son temps à nous punir, alors que sauver l’humanité devrait occuper toute son énergie. C’est là que survient le deuxième effet kiss-cool de la théorie du Basilic de Roko : l’IA a « conscience », alors même qu’elle n’existe pas encore, que la seule façon de nous pousser à accélérer sa création est la menace d’un enfer virtuel. La punition de ceux qui n’aident pas à sa création devient donc une condition nécessaire à son existence.

L’IA est donc en train de nous faire du chantage, là, maintenant, alors même qu’elle n’existe pas encore.

C’est grave docteur ?

La théorie du Basilic de Roko repose sur des postulats trop fragiles pour pouvoir être envisagée comme plausible. Déjà parce qu’il faudrait effectivement qu’une telle IA voit le jour, ensuite parce que rien n’assure que cet IA comprenne le bien comme nous le comprenons. En d’autres termes, peut-être que cette même IA calculera que ce qu’il y a de meilleur pour elle, c’est de regarder l’intégrale des films de Danny Boon, en boucle, jusqu’à la fin des temps.

 

De plus, des expériences de pensée comme celle-ci, qui rappelle d’ailleurs étrangement le Pari de Pascal, émergent chaque jour sur des sites tels que LessWrong ou Reddit ou d’autres forums grand public. La notoriété du Basilic de Roko vient véritablement d’un effet Streisand accidentellement provoqué par le fondateur de LessWrong en supprimant l’article de son site.

Bref, cette théorie est plus à recevoir comme une expérience de pensée amusante pour ceux qui aiment avoir le vertige que comme une véritable menace pour l’humanité —même si, au final, notre torture éternelle sera pour le bien de l’humanité. En attendant, dormez sur vos deux oreilles, vous devriez pouvoir profiter de votre mort tranquillement… à moins que…

L’expression « effet Streisand » fait référence à un incident, survenu en 2003, au cours duquel Barbra Streisand avait poursuivi en justice l’auteur d’une photographie aérienne de son domaine privé afin d’empêcher sa propagation, rendant ladite photo plus populaire que nécessaire.

On parle ainsi de l’effet Streisand pour désigner un phénomène au cours duquel la volonté d’empêcher la divulgation d’informations que l’on aimerait garder cachées déclenche le résultat inverse.