Mastodon

AGI Ruin: A List of Lethalities

AGI Ruin: A List of Lethalities, de Eliezer Yudkowsky, es la mejor justificación no ficticia que he leído sobre por qué y cómo la IA nos matará a todos.

«Losing a conflict with a high-powered cognitive system looks at least as deadly as «everybody on the face of the Earth suddenly falls over dead within the same second»

Also:

«Maybe a superintelligence couldn’t defeat a human in a very simple realm like logical tic-tac-toe; if you’re fighting it in an incredibly complicated domain you understand poorly, like human minds, you should expect to be defeated by ‘magic’ in the sense that even if you saw its strategy you would not understand why that strategy worked.  AI-boxing can only work on relatively weak AGIs; the human operators are not secure systems.»

…y no tenemos un plan.

Me hizo reflexionar sobre el transhumanismo y cómo los Homo Sapiens fueron solo un paso de 250,000 años entre los mamíferos y la inteligencia artificial inmortal. Tal vez en todas partes es o será así. Quizás no hay extraterrestres biológicos viajando por el universo.

Me enteré de esto via Lex Friedman: https://lexfridman.com/eliezer-yudkowsky/

 

todos vamos a morir

Tengo los comentarios apagados por esta razón. Si te gusta este post, compártelo con tus amigos.

Daniel Pratt

Emprendedor, artista de calle, aficionado a los medios sociales, fan de PHP, amante de psql, geek. Vamos a morir pronto. Lo que queda es amar, disfrutar de nuestras glorias, miserias y afinidades electivas.

More Posts - Website

Follow Me:
TwitterFacebookGoogle Plus

Leer entrada anterior
Mi 2022 en el cine

Matrix Resurrections es divertida.  Lo más rescatable es esa secuencia musicalizada con White Rabbit, digna de una mejor película hecha...

Cerrar