Se trata de una medida, en esencia, bastante sencilla.

Google DeepMind es la gran apuesta de Google por la IA

Últimamente, Mustafá Suleyman – co-fundador de Google DeepMind – está dejando titulares que no dejan indiferente a nadie. Ya habló de profesiones que van a desaparecer uniéndose así a otras opiniones tan importantes como la de Bill Gates que ha ido soltando bastantes píldoras de conocimiento sobre la IA. En esta ocasión, Suleyman ha explicado cuál es la clave para evitar que la IA pueda acabar con la humanidad.

Esto es una posibilidad muy remota, pero que lleva bastante tiempo preocupando al público general y a los expertos, ya que podría pasar y es un escenario que algunos creadores ya han contemplado. De hecho, el fundador de OpenAI ya está preparado para apagar su IA si todo sale mal y de hecho, tiene un búnker preparado para sobrevivir al fin del mundo.

Mustafá Suleyman es bastante más humilde y tiene un plan muy sencillo para evitar que se llegue a esta situación.

La estrategia sencilla para evitar el peligro de la IA

[embedded content]

En una entrevista para el MIT Technology Review, Suleyman ha sido claro con su idea de evitar que la IA suponga un problema claro en el futuro. Lo cierto es que es bastante sencillo y es un plan que no tiene prácticamente ninguna fisura.

Consiste, en esencia, en evitar la automejora recursiva. Es decir, la habilidad de la IA para aprender y mejorarse a sí misma hasta el punto de aprender mucho más por sí misma que de lo que los humanos permiten. Aunque esto es un camino que permitiría que la IA mejorase exponencialmente, lo cierto es que limitaría también la posibilidad de que la IA lograra la autoconsciencia y la capacidad de maniobrar contra el ser humano.

En palabras de Suleyman:

No vas a querer que tu pequeña IA se ponga a actualizarse a sí misma sin tu permiso.

El objetivo según Suleyman consiste en establecer límites que no pueda cruzar y garantizar que crean una seguridad en todo el camino, un proceso que a priori podría parecer lógico pero que no lo es tanto. Muchos expertos en IA quieren evitar cualquier limitación a la hora de enseñar a las IA, incluyendo eso el uso de nuestros datos personales para simplificar y acelerar el proceso.

Suleyman, a parte de estar al mando de la división de IA de Google, también trabaja en otras empresas de desarrollo de inteligencia artificial, como Inflection AI, dónde una IA llamada Pi ayuda a personas con problemas emocionales.

Es por ello por lo que los gobiernos y otras instituciones están tratando de establecer unos límites claros en la legislación para evitar que la situación se descontrole. En su momento, grandes expertos de esta tecnología pidieron que se pusiera en pausa el desarrollo de la misma, para establecer con seguridad unos márgenes que la IA no pueda eludir con facilidad.

Fuente info
Autor: Esteban García Marcos

[su_divider]