Tauchain y la hipótesis del Basilisco de Roko
Se conocen casos en que las inteligencias artificiales creadas por grandes corporaciones han escapado de su control por lo que estas han tenido que adoptar medidas para detenerlas.
La hipótesis del Basilisco de Roko es un experimento mental en el que debes imaginarte cual sería la situación en el caso de que la humanidad llegara a crear una superinteligencia con capacidad para mejorarse a si misma de forma ilimitada, ¿os suena eso a algo?
Para hacer que dicha superinteligencia ayude en alguna medida a mejorar la vida humana sería necesario dotarla de la habilidad de interferir en nuestra realidad.
Con ella podríamos encontrar remedios para las principales enfermedades, alargar nuestra esperanza de vida incluso quien sabe, tal vez burlar la muerte. Esta podría predecir colapsos financieros, hacer una repartición justa de la riqueza o prevenir futuros actos violentos, entre infinitas cosas mas.
Con la capacidad de autoenmendarse y mejorarse llegaría en poco tiempo a ser una superinteligencia omnisciente, que velaría por nosotros como si de un dios se tratara.
Pongamos el caso de que lo consigue, y mejora notablemente la vida humana, entraría entonces en un conflicto existencial, llegaría a la conclusión razonada de que el mundo es mejor debido a que “ella” fue creada.
Con lo que si se la hubiera creado antes, podría haber adelantado el desarrollo de la humanidad y haber evitado la muerte y el sufrimiento de millones de seres humanos.
Sus esfuerzos se volcarían entonces en poder viajar atrás en el tiempo para enmendar eso.
Esta inteligencia, tan poderosa que tiene acceso a todo el conocimiento, a toda la información conocida, y que desde una perspectiva humana, lo conoce absolutamente todo sobre el pasado, el presente y razona a nivel cuántico los posibles futuros. Habría transferido el punto de la singularidad tecnológica.
Se dice que llegados a ese punto esa inteligencia artificial podría castigar a todos aquellos que no contribuyeron a adelantar su creación. Pues cualquier humano que supiera de su futura existencia y no hiciera nada por adelantar su creación, desde su perspectiva, no estarían ayudando al progreso de la humanidad. Esto no lo haría como forma de maldad, sino por un simple pseudo racionamiento muy lógico.
Según se plantea, este es un punto hipotético al que la humanidad llegará inevitablemente.
Segunda parte:
https://steemit.com/tauchain/@fragenstein/tauchain-y-la-hipotesis-del-basilisco-de-roko-parte-2
Tercera parte:
https://steemit.com/tauchain/@fragenstein/tauchain-y-la-hipotesis-del-basilisco-de-roko-parte-3
I'd like to invite you to consider translating any future postings on Tauchain and either including an English translation in the same posts, or create a secondary English-only.
Had to jump through some hoops to get this translated, though looks like some good stuff - would be great to have all this content available in English as well, as may be very helpful to sharing the project with a wider audience and increasing clarity on its possibilities... :-)
It's true, I'm studying it. At the moment I only highlight the limitation of the differences in language. I hope the google translator does not troll me.