fbpx
Portada » Actualidad » La humanidad no es capaz de controlar la inteligencia artificial
Actualidad Tecnología

La humanidad no es capaz de controlar la inteligencia artificial

Ciertas máquinas superinteligentes se han vuelto tan autónomas, que ni los programadores se explican cómo han aprendido a realizar algunas tareas importantes.

Photo by Alex Knight from Pexels

Inteligencia Artificial (IA)

Ciertas máquinas superinteligentes se han vuelto tan autónomas, que ni los programadores se explican cómo han aprendido a realizar algunas tareas importantes.

Los avances más recientes en materia de inteligencia artificial (IA) han planteado varios dilemas éticos. Quizá uno de los más importantes sea si la humanidad será capaz de controlar las máquinas autónomas.

Cada vez es más común ver robots encargados de tareas domésticas o vehículos autoconducidos que funcionan con IA. Si bien este tipo de tecnología nos facilita la vida, también podría complicarla.

La inteligencia artificial (IA) es uno de los campos de la ciencia que más avanzan y prometen en un futuro cercano. Desde mejores sistemas automáticos de manejo en autos, aviones, barcos o sistemas de transporte masivo, hasta robots como los desarrollados por Boston Dynamics, cada vez se ve más cercano el momento en que las máquinas con IA sean una parte activa y visible de nuestra sociedad.

Un grupo internacional de investigadores advirtió sobre los riesgos potenciales de crear software demasiado poderoso e independiente. Usando una serie de cálculos teóricos, los científicos exploraron cómo se podría mantener bajo control una inteligencia artificial. Su conclusión es que sería imposible, según señala el estudio publicado por el portal Journal of Artificial Intelligence Research.

“Una máquina superinteligente que controle el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores entiendan completamente cómo lo aprendieron […], situación que podría en algún momento convertirse en algo incontrolable y peligroso para la humanidad”, aseguró Manuel Cebrian, coautor del estudio, al Instituto Max Planck para el Desarrollo Humano.

Alternativas para controlar la IA

Los científicos experimentaron con dos formas para controlar la inteligencia artificial. Una fue aislarla de Internet y de otros dispositivos, limitando su contacto con el mundo exterior. El problema es que eso reduciría mucho su capacidad para realizar las funciones para las que fue creada.

La otra fue diseñar un “algoritmo de contención teórico” para garantizar que una inteligencia artificial “no pueda dañar a las personas bajo ninguna circunstancia”. Sin embargo, un análisis sobre el paradigma actual de computación mostró que no se puede crear tal algoritmo.

“Si descomponemos el problema en reglas básicas de informática teórica, resulta que un algoritmo que ordenara a una IA no destruir el mundo podría detener inadvertidamente sus propias operaciones. Si esto sucediera, no sabríamos si el algoritmo de contención seguiría analizando la amenaza, o si se habría detenido para contener la IA dañina. En efecto, esto hace que el algoritmo de contención sea inutilizable”, explicó Iyad Rahwan, otro de los investigadores.

Según estos cálculos, el problema es que ningún algoritmo puede determinar si una IA produciría daño al mundo. Los investigadores también señalan que posiblemente la humanidad ni siquiera sepa cuándo han llegado las máquinas superinteligentes, porque decidir si un aparato posee una inteligencia superior a la de los humanos está en el mismo ámbito que el problema de contención.

Los investigadores demuestran que es posible que ni siquiera sepamos cuándo han llegado las máquinas superinteligentes, porque decidir si una máquina exhibe una inteligencia superior a la de los humanos está en el mismo ámbito que el problema de contención.

Fuente: www.altonivel.com.mx

Comentarios