La lutte autour d’une idéologie « dangereuse » façonne le débat sur l’IA
MaisonMaison > Blog > La lutte autour d’une idéologie « dangereuse » façonne le débat sur l’IA

La lutte autour d’une idéologie « dangereuse » façonne le débat sur l’IA

Feb 15, 2024

Paris (AFP) – La philosophie favorite de la Silicon Valley, le long terme, a contribué à orienter le débat sur l'intelligence artificielle autour de l'idée d'extinction humaine.

Publié le : 28/08/2023 - 11:13

Mais des critiques de plus en plus virulentes avertissent que cette philosophie est dangereuse et que l’obsession de l’extinction détourne l’attention des problèmes réels associés à l’IA, comme le vol de données et les algorithmes biaisés.

L'auteur Emile Torres, ancien partisan du long terme devenu critique du mouvement, a déclaré à l'AFP que la philosophie reposait sur le type de principes utilisés dans le passé pour justifier les massacres et les génocides.

Pourtant, le mouvement et les idéologies qui y sont liées comme le transhumanisme et l’altruisme efficace exercent une énorme influence dans les universités d’Oxford à Stanford et dans l’ensemble du secteur technologique.

Des investisseurs en capital-risque comme Peter Thiel et Marc Andreessen ont investi dans des sociétés de prolongation de la vie et dans d’autres projets favoris liés au mouvement.

Elon Musk et Sam Altman d'OpenAI ont signé des lettres ouvertes avertissant que l'IA pourrait provoquer l'extinction de l'humanité – même s'ils en tireront profit en affirmant que seuls leurs produits peuvent nous sauver.

En fin de compte, les critiques affirment que ce mouvement marginal exerce une trop grande influence sur les débats publics sur l’avenir de l’humanité.

Les adeptes du long terme croient que nous avons le devoir d’essayer de produire les meilleurs résultats pour le plus grand nombre d’humains.

Ce n’est pas différent de la situation de nombreux libéraux du XIXe siècle, mais les partisans du long terme ont en tête une chronologie beaucoup plus longue.

Ils regardent vers un avenir lointain et voient des milliards et des milliards d’humains flotter dans l’espace, colonisant de nouveaux mondes.

Ils soutiennent que nous avons le même devoir envers chacun de ces futurs humains que envers toute personne vivante aujourd’hui.

Et comme ils sont très nombreux, ils pèsent bien plus lourd que les spécimens actuels.

Ce type de pensée rend l'idéologie "vraiment dangereuse", a déclaré Torres, auteur de "Human Extinction: A History of the Science and Ethics of Annihilation".

"Chaque fois que vous avez une vision utopique de l'avenir marqué par des quantités de valeur presque infinies, et que vous combinez cela avec une sorte de mode de pensée morale utilitaire où la fin peut justifier les moyens, cela devient dangereux", a déclaré Torres.

Si une machine superintelligente était sur le point de prendre vie avec le potentiel de détruire l’humanité, les adeptes du long terme s’y opposeraient forcément, quelles qu’en soient les conséquences.

Interrogé en mars par un utilisateur de Twitter, la plateforme désormais connue sous le nom de X, combien de personnes pourraient mourir pour empêcher que cela se produise, l'idéologue longtermiste Eliezer Yudkowsky a répondu qu'il suffisait d'avoir suffisamment de personnes "pour former une population reproductrice viable".

"Tant que cela est vrai, il y a encore une chance d'atteindre les étoiles un jour", a-t-il écrit, bien qu'il ait ensuite supprimé le message.

Le long terme est né des travaux réalisés par le philosophe suédois Nick Bostrom dans les années 1990 et 2000 sur le risque existentiel et le transhumanisme – l'idée selon laquelle les humains peuvent être augmentés par la technologie.

L’universitaire Timnit Gebru a souligné que le transhumanisme était dès le départ lié à l’eugénisme.

Le biologiste britannique Julian Huxley, qui a inventé le terme transhumanisme, a également été président de la British Eugenics Society dans les années 1950 et 1960.

"Le long terme est un eugénisme sous un nom différent", a écrit Gebru sur X l'année dernière.

Bostrom a longtemps été accusé de soutenir l'eugénisme après avoir cité comme risque existentiel les « pressions dysgéniques », essentiellement des personnes moins intelligentes procréant plus rapidement que leurs pairs plus intelligents.

Le philosophe, qui dirige le Future of Humanity Institute de l'Université d'Oxford, s'est excusé en janvier après avoir admis avoir écrit des messages racistes sur un forum Internet dans les années 1990.

"Est-ce que je soutiens l'eugénisme ? Non, pas au sens où ce terme est communément compris", a-t-il écrit dans ses excuses, soulignant qu'il avait été utilisé pour justifier "certaines des atrocités les plus horribles du siècle dernier".

Malgré ces problèmes, les adeptes du long terme comme Yudkowsky, un décrocheur du secondaire connu pour avoir écrit des fanfictions sur Harry Potter et promu le polyamour, continuent d'être fêtés.