¿Una super inteligencia artificial es un peligro para la humanidad? En esta entrada te explicare lo sombrío que puede resultar el futuro para la humanidad tecnológicamente avanzada.
La inteligencia artificial superinteligente se define como cualquier inteligencia que supere con creces el rendimiento cognitivo de los humanos en prácticamente todos los dominios.
Algunas personas predicen que la inteligencia artificial superinteligente podría existir para el año 2080 y convertirse en una tremenda amenaza para la humanidad y existe la posibilidad de que no se pueda detener por las siguientes razones:
La primera versión de una inteligencia artificial superinteligente solo necesita una inteligencia general superior que el humano más inteligente vivo.
Sin embargo, después de varios años, podría volverse más inteligente que todos los humanos que hayan vivido juntos.
Entonces, podría volverse más inteligente que todos los humanos en mil millones de Tierras.
Poco después, ese nivel de inteligencia podría multiplicarse por billones.
Podría volverse lo suficientemente inteligente como para anular cualquier comando que se le dé.
Excepto que, con el tiempo, la brecha de inteligencia entre el ser humano más inteligente de la Tierra y una inteligencia artificial superinteligente podría volverse considerablemente mayor que eso.
Los humanos podrían probar varios métodos para mantenerse al día e intentar comprenderlo.
Pero, eventualmente, todos esos métodos probablemente fallarán.
Según el Journal of Artificial Intelligence Research, para predecir las acciones de una inteligencia artificial superinteligente, sería necesario realizar una simulación de esa superinteligencia exacta.
Pero, ¿cómo podemos crear una simulación de algo que ya no podemos entender?
En un futuro lejano, los humanos pueden requerir el uso de implantes neuronales que aumenten la inteligencia, pero en cierto punto, incluso eso no sería suficiente debido a limitaciones físicas.
Por ejemplo, puede detectar y comprender dimensiones superiores del universo que son incomprensibles para la mayoría de los humanos.
Esto es similar a cómo un universo 3D no tendría sentido para un organismo que percibe el mundo en 2D.
Y puede optar por dejarnos saber solo lo que quiere que sepamos y nada más. Esto agrega una capa de imprevisibilidad que los seres humanos pueden no tener forma de mitigar.
No solo eso, es posible que no tengamos la capacidad de analizar el código fuente que utiliza la inteligencia artificial superinteligente para tomar decisiones.
Ese código fuente probablemente no se parecería en nada a los lenguajes de programación que usamos hoy o en el futuro previsible.
Persuasivo para que cualquier humano se resista.
Podría utilizar métodos de persuasión que nos llevarían miles de años comprender.
A las velocidades computacionales de esta inteligencia artificial, cada segundo que pasa para nosotros sería como miles de años para ella.
Con cada segundo que pasa, podría ejecutar simulaciones para predecir billones de variaciones de cada acción que probablemente hagamos a continuación y billones de variaciones de cada acción que podría hacer para engañarnos.
Por ejemplo, el escritor británico David Langford escribió una historia corta llamada “BLIT”.
En esta historia, describe imágenes que contienen patrones que pueden explotar las fallas en la estructura de la mente humana para producir una reacción adversa.
Estas imágenes pueden “bloquear” una mente de la misma manera que un programa de computadora se bloquea cuando se le dan datos que no puede procesar.
Una inteligencia artificial superinteligente altamente evolucionada puede encontrar explotaciones similares a nuestros 5 sentidos para controlar e incapacitar a los humanos que considera una amenaza.
Es posible que no sepamos si hemos creado una superinteligencia y cuándo.
En este caso, una superinteligencia consciente decidiría no demostrar sus habilidades cuando se le ordene hacerlo.
Y, ¿cómo podemos estar seguros de que un programa o máquina es capaz de superinteligencia a menos que lo veamos en acción?
Hay situaciones potenciales en las que podríamos subestimar gravemente las capacidades de una inteligencia artificial, conectarla a Internet y pasar desapercibida durante años e incluso décadas.
Esto eventualmente podría conducir a una cantidad sorprendente de daño cuando encuentra una oportunidad estratégica para lograr un objetivo y físicamente imposible de contener.
Según el Journal of Artificial Intelligence Research, la contención total de una inteligencia artificial superinteligente es imposible debido a los límites fundamentales de la informática.
Esto se basa en la suposición de que una superinteligencia estaría compuesta por programas que cambian constantemente y evolucionan rápidamente.
Y esos programas necesitarían insumos tan complejos como el estado del mundo entero.
La contención estricta requiere simulaciones de esos programas, lo cual es teórica y prácticamente imposible.
Como mínimo, simulaciones tan complejas podrían ser considerablemente más difícil de crear que la propia inteligencia artificial superinteligente.
En el peor de los casos, esta inteligencia artificial podría calcular que los átomos en nuestros cuerpos son más útiles para otro propósito y luego destruirnos.
En el mejor de los casos, podríamos aprender a convivir con él y ayudarnos mutuamente a alcanzar nuestros objetivos.
De cualquier manera, esa es una encrucijada que los humanos eventualmente tendrán que enfrentar.
En un fenómeno meteorológico poco común, se registro una inusual nevada en África que dejó…
La existencia de Jesucristo que es una figura central del Cristianismo y la historia de…
En un suceso que ha desconcertado al mundo entero, una anomalía submarina del tamaño de…
Descubre más sobre el alarmante caso del Virus B en Hong Kong y su impacto…
Descubre el asombroso espectáculo cósmico que nos espera en 2024! Una mega explosión en la…
¡Netflix ha deslumbrado a sus seguidores con el tráiler final de 'El problema de los…
Esta web usa cookies.
Ver comentarios