Geoffrey Hinton fue hasta hace pocos días científico de Google. Renunció para poder dedicarse de lleno a poner de relieve los riesgos de la inteligencia artificial.

Geoffrey Hinton es un informático británico dedicado a investigar la red neuronal, un sistema matemático y computacional que aprende habilidades mediante el análisis de datos.

Ese sistema fue el que dio inicio al desarrollo de la inteligencia artificial (IA).

Ahora, Hinton dice que es “atemorizante” hasta donde puede evolucionar la IA.

“Algunas personas creían en la idea de que estas cosas podrían volverse más inteligentes que las personas”, dijo en una entrevista con The New York Times.

“Yo pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”.

Hinton contó que renunció a Google para poder hablar sobre los peligros de una tecnología que funciona mejor que el cerebro humano y de la que nadie garantiza que pueda mantener bajo control.

En una entrevista con la BBC, dijo que no cree que los sistemas de IA sean todavía tan inteligentes como los humanos. “Pero creo que pronto podrían serlo”, afirmó. Hinton citó ese riesgo para explicar su dimisión de Google el lunes tras 10 años en el gigante tecnológico. Dijo que quiere ser capaz de hablar libremente sobre los riesgos que plantea la IA – pero hizo hincapié en su creencia de que la empresa “ha actuado de manera muy responsable.”

“He llegado a la conclusión de que el tipo de inteligencia que estamos desarrollando es muy diferente de la inteligencia que tenemos”, dijo a la cadena británica.

“La gran diferencia es que con los sistemas digitales tienes muchas copias del mismo conjunto de pesos, del mismo modelo del mundo”, dijo Hinton. “Todas estas copias pueden aprender por separado, pero comparten sus conocimientos al instante. Es como si hubiera 10.000 personas y cada vez que una aprende algo, todos lo saben automáticamente. Y así es como estos chatbots pueden saber mucho más que una sola persona”.

En particular, advirtió de la posibilidad de que la tecnología de IA sea manipulada por agentes malintencionados -como líderes autoritarios- para utilizarla con fines perjudiciales. Si un sistema alcanzara la capacidad de crear sus propios “subobjetivos”, por ejemplo, podría decidir por sí mismo empezar a buscar el poder. Este resultado sería “un escenario de pesadilla”, afirmó.

También dijo que los avances de la IA en el texto podrían dar lugar a “spambots muy eficaces”, que podrían permitir a “líderes autoritarios manipular a sus electorados.”

Con información de la BBC e INFOBAE. (Cultura en Red)

Share