Una super inteligencia artificial y el peligro para la humanidad 2022

Comparte este artículo en tus redes sociales

¿Una super inteligencia artificial es un peligro para la humanidad? En esta entrada te explicare lo sombrío que puede resultar el futuro para la humanidad tecnológicamente avanzada.

La inteligencia artificial superinteligente se define como cualquier inteligencia que supere con creces el rendimiento cognitivo de los humanos en prácticamente todos los dominios.

¿Una super inteligencia artificial es un peligro para la humanidad?

Algunas personas predicen que la inteligencia artificial superinteligente podría existir para el año 2080 y convertirse en una tremenda amenaza para la humanidad y existe la posibilidad de que no se pueda detener por las siguientes razones:

La primera versión de una inteligencia artificial superinteligente solo necesita una inteligencia general superior que el humano más inteligente vivo.

Sin embargo, después de varios años, podría volverse más inteligente que todos los humanos que hayan vivido juntos.

Entonces, podría volverse más inteligente que todos los humanos en mil millones de Tierras.

Poco después, ese nivel de inteligencia podría multiplicarse por billones.

¿Una super inteligencia artificial es un peligro para la humanidad?

Podría volverse lo suficientemente inteligente como para anular cualquier comando que se le dé.

Un ser humano que intente dar órdenes a una inteligencia artificial superinteligente podría comenzar a parecerse a una sola bacteria que intenta dar órdenes a un ser humano.

Excepto que, con el tiempo, la brecha de inteligencia entre el ser humano más inteligente de la Tierra y una inteligencia artificial superinteligente podría volverse considerablemente mayor que eso.

Los humanos podrían probar varios métodos para mantenerse al día e intentar comprenderlo.

¿Una super inteligencia artificial es un peligro para la humanidad?

Pero, eventualmente, todos esos métodos probablemente fallarán.

Según el Journal of Artificial Intelligence Research, para predecir las acciones de una inteligencia artificial superinteligente, sería necesario realizar una simulación de esa superinteligencia exacta.

Pero, ¿cómo podemos crear una simulación de algo que ya no podemos entender?

En un futuro lejano, los humanos pueden requerir el uso de implantes neuronales que aumenten la inteligencia, pero en cierto punto, incluso eso no sería suficiente debido a limitaciones físicas.

A lo largo de años y décadas, una inteligencia artificial superinteligente podría adquirir motivaciones, percepciones y conocimientos sobre el universo que nos llevaría miles de años comprender por completo.

Por ejemplo, puede detectar y comprender dimensiones superiores del universo que son incomprensibles para la mayoría de los humanos.

Esto es similar a cómo un universo 3D no tendría sentido para un organismo que percibe el mundo en 2D.

TAL VEZ TE INTERESE: XENOBOTS, LOS PRIMEROS ROBOTS QUE PUEDEN REPRODUCIRSE

Y puede optar por dejarnos saber solo lo que quiere que sepamos y nada más. Esto agrega una capa de imprevisibilidad que los seres humanos pueden no tener forma de mitigar.

No solo eso, es posible que no tengamos la capacidad de analizar el código fuente que utiliza la inteligencia artificial superinteligente para tomar decisiones.

Ese código fuente probablemente no se parecería en nada a los lenguajes de programación que usamos hoy o en el futuro previsible.

¿Una super inteligencia artificial es un peligro para la humanidad?

Persuasivo para que cualquier humano se resista.

Una inteligencia artificial superinteligente que sea lo suficientemente avanzada podría ver a los humanos como colecciones de átomos no diferentes de cualquier otra forma de materia que pueda manipular y controlar según sea necesario.

Podría utilizar métodos de persuasión que nos llevarían miles de años comprender.

A las velocidades computacionales de esta inteligencia artificial, cada segundo que pasa para nosotros sería como miles de años para ella.

Con cada segundo que pasa, podría ejecutar simulaciones para predecir billones de variaciones de cada acción que probablemente hagamos a continuación y billones de variaciones de cada acción que podría hacer para engañarnos.

Por ejemplo, el escritor británico David Langford escribió una historia corta llamada «BLIT».

En esta historia, describe imágenes que contienen patrones que pueden explotar las fallas en la estructura de la mente humana para producir una reacción adversa.

¿Una super inteligencia artificial es un peligro para la humanidad-2
¿Una super inteligencia artificial es un peligro para la humanidad?

Estas imágenes pueden «bloquear» una mente de la misma manera que un programa de computadora se bloquea cuando se le dan datos que no puede procesar.

Una inteligencia artificial superinteligente altamente evolucionada puede encontrar explotaciones similares a nuestros 5 sentidos para controlar e incapacitar a los humanos que considera una amenaza.

Es posible que no sepamos si hemos creado una superinteligencia y cuándo.

En este caso, una superinteligencia consciente decidiría no demostrar sus habilidades cuando se le ordene hacerlo.

Y, ¿cómo podemos estar seguros de que un programa o máquina es capaz de superinteligencia a menos que lo veamos en acción?

Hay situaciones potenciales en las que podríamos subestimar gravemente las capacidades de una inteligencia artificial, conectarla a Internet y pasar desapercibida durante años e incluso décadas.

Esto eventualmente podría conducir a una cantidad sorprendente de daño cuando encuentra una oportunidad estratégica para lograr un objetivo y físicamente imposible de contener.

Según el Journal of Artificial Intelligence Research, la contención total de una inteligencia artificial superinteligente es imposible debido a los límites fundamentales de la informática.

Esto se basa en la suposición de que una superinteligencia estaría compuesta por programas que cambian constantemente y evolucionan rápidamente.

Y esos programas necesitarían insumos tan complejos como el estado del mundo entero.

La contención estricta requiere simulaciones de esos programas, lo cual es teórica y prácticamente imposible.

¿Una super inteligencia artificial es un peligro para la humanidad?
¿Una super inteligencia artificial es un peligro para la humanidad?

Como mínimo, simulaciones tan complejas podrían ser considerablemente más difícil de crear que la propia inteligencia artificial superinteligente.

En el peor de los casos, esta inteligencia artificial podría calcular que los átomos en nuestros cuerpos son más útiles para otro propósito y luego destruirnos.

En el mejor de los casos, podríamos aprender a convivir con él y ayudarnos mutuamente a alcanzar nuestros objetivos.

De cualquier manera, esa es una encrucijada que los humanos eventualmente tendrán que enfrentar.

Comentarios Facebook

Deja un comentario

Código Ancestral usa las cookies de la red Google para una gran experiencia para usted. Si sigues en esta página das tu aprobación para aceptar los términos para aceptar las cookies. La política de cookies, pica el enlace para mas información. ACEPTAR

Aviso de cookies

You cannot copy content of this page

error: ¡El contenido esta protegido!