Singularité technologique ou collapse… qui frappera le premier ?

collapse technologique

Allons-nous assister à l’effondrement de notre “civilisation” techno-industrielle avant que des supraintelligences artificielles n’aient pris le contrôle du monde ? That is ze question !

Collapse et singularité sont deux théories fondées sur des analyses scientifiques, aux conclusions diamétralement opposées. 

D’un côté, des scientifiques, comme Stephen Hawking ou Bill Joy, estiment que l’intelligence artificielle permettra bientôt aux machines de conquérir leur autonomie et de s’affranchir de l’humanité.

De l’autre, des chercheurs en sciences-sociales, comme Donnela Meadows ou Richard Heinberg, postulent que notre civilisation occidentale (l’anthropocène) disparaîtra avec le changement climatique et la pénurie de ressources. Et sans ressources, pas d’énergie ni de high-tech.

Confronté à ces deux théories, on peut se demander… qui gagnera la palme ? Qui aura raison le premier ? Et s’il s’agira d’un sprint serré ou d’un match plein de retournements de situation ?

Petite définition du collapse, pour les nouveaux venus. Ce concept est défini par Pablo Servigne et Raphaël Stevens comme “l’effondrement de notre civilisation thermo-industrielle et/ou des écosystèmes et espèces vivantes”. Pour aller plus loin, vous pouvez consulter le lexique du collapse.

Un scénario à la I-robot ?

La singularité, c’est le moment où l’évolution exponentielle de l’intelligence artificielle fait entrer les machines dans un “cycle d’auto-amélioration” leur permettant de dépasser l’intelligence humaine.

Un concept qu’on retrouve dans la Science-Fiction depuis les années 50, notamment chez Philip K. Dick, qui dépeint des androïdes souvent bien plus humains que leurs créateurs. On peut même remonter à 1942 et aux fameuses règles de la robotique d’Asimov.

Le premier scientifique à avoir soulevé cette préoccupation est le mathématicien américain Stanislaw Ulam. En 1958, il avouait au physicien John von Neumann que “l’accélération constante du progrès technologique et des changements du mode de vie humain semble nous rapprocher d’une singularité fondamentale de l’histoire de l’évolution de l’espèce, au-delà de laquelle l’activité humaine, telle que nous la connaissons, ne pourrait se poursuivre”.

Une analyse qui pourrait très bien s’appliquer… à la collapsologie.

Datas & dates

Pour l’heure, il faut relativiser l’imminence du danger. 

Des chercheurs, comme l’informaticien et philosophe Jean-Gabriel Ganascia, estiment que la singularité relève plus de la fable qu’autre chose et s’étonne que des cerveaux comme Hawking puissent y souscrire. Pour lui, “la Singularité est hautement improbable, si improbable qu’on ne saurait l’envisager sérieusement.”

La preuve. Chaque année, le prix Loebner couronne des programmeurs ayant conçu des logiciels aux capacités “humaines”. Des intelligences artificielles capables de réussir le “test de Turing” qui permet de distinguer une nature artificielle d’un interlocuteur humain. Or, depuis 2004, le taux de réussite a radicalement chuté. Les innovations sur l’IA seraient-elles au point mort ?

Pourtant, des futurologues transhumanistes, comme Ray Kurzweil, du MIT, estiment que la singularité se produira en 2045. 

De leur côté 360 chercheurs interrogés par le Future of Humanity Institute d’Oxford, ils estiment qu’il y a 1 chance sur 2 pour que l’IA surpasse l’humain dans 45 ans (autour de 2067).

Plus pressé, Louis Rosenberg, PDG de la société Unanimous AI, parie carrément sur 2030.

Quoiqu’il en soit, cette évolution exponentielle de l’intelligence artificielle sera-t-elle stoppée par l’effondrement du système thermo-industriel ? 

Sachant que le rapport Meadows de 1972 estime qu’un scénario de croissance démographique et économique exponentiel tel que nous la vivons aujourd’hui, conduirait à une chute dramatique des ressources et de la population humaine autour de 2030-2040 (une estimation corroborée par de nombreuses études depuis), on peut dire que le collapse en entrain de doubler la singularité. 

Et, si effondrement il doit y avoir, les techno-lords ultrariches qui dirigent les plus grandes entreprises du monde n’y seront pas pour rien. Laissez-moi m’expliquer.

La stratégie de la fuite

Vous ne vous êtes jamais demandé pourquoi Elon Musk nous prévenait du danger de la singularité… tout en construisant des flottes de véhicules autopilotés ? 

Ou pourquoi Jeff Bezos ou Bill Gates crient à la menace IA, tout en faisant polissant des algorithmes, source de leur richesse astronomique ? 

Voici ma réponse : ces milliardaires ne s’intéressent pas à la fin du monde. Les menaces de collapse ou de singularité ne sont, à leurs yeux, qu’un prétexte pour justifier leurs projets fous de s’enfuir vers d’autres cieux et de devenir les empereurs d’atolls dans le Pacifique, de la Lune ou de Mars.

Lire aussi : comment les super-riches se préparent à l’effondrement

Voilà pourquoi ils n’ont pas de scrupules à détruire la planète avec leurs produits, ni à créer des drones ou des robots que les États tourneront contre leur population lorsque celle-ci viendra à se rebeller.

Ces ultrariches ont déjà fait sécession.

Lire aussi : Un rapport confidentiel de la Deutsche Bank révèle comment les ultra-riches se préparent au collapse

Ils ne sont plus des terriens. Ils sont citoyens de l’univers. Peut-être est-ce l’influence de Ray Bradbury, d’Aldous Huxley, d’Asimov ou de P.K. Dick, mais je crois que, dans les yeux de ces post-humains, la terre et l’humanité ne sont déjà plus qu’un vieux souvenir.

Zeen is a next generation WordPress theme. It’s powerful, beautifully designed and comes with everything you need to engage your visitors and increase conversions.

Top Reviews