Investigador de IA: “Hay que estar dispuesto a bombardear un Centro de Datos para salvarnos”. Una opinión inquietante sobre la Inteligencia Artificial

Por RT

             “Si alguien construye una IA demasiado poderosa, en las condiciones actuales, creo que todos los miembros de la especie humana y toda la vida     biológica de la Tierra morirán poco después”, opina Eliezer Yudkowsky, que ofrece un Plan para evitar este extremo.

             Los recientes escándalos en torno al sistema de Inteligencia Artificial ChatGPT, desarrollado por la Compañía estadounidense OpenAI, han provocado que la Comunidad Internacional haya empezado a prestar más atención al desarrollo de la IA. Contemplando las posibles amenazas que pueden surgir debido a la falta de control humano sobre estas tecnologías.

             En este sentido, una Carta abierta – firmada ya por el Director de SpaceX, Tesla y Twitter, Elon Musk, el Cofundador de Apple, Steve Wozniak, y otras personalidades – hace “un llamado a todos los Laboratorios de IA para que pausen de inmediato, durante al menos seis meses, el entrenamiento de los Sistemas de IA más potentes que GPT-4”.

             En respuesta a esta situación, el Investigador y Defensor estadounidense de la llamada Inteligencia Artificial amigable, Eliezer Yudkowsky, ha publicado en la revista Time un artículo, afirmando que la medida propuesta en la Carta Abierta no será suficiente para salvar a la Humanidad si “alguien construye una IA demasiado poderosa“: “En las condiciones actuales, creo que todos los miembros de la especie humana y toda la vida biológica de la Tierra morirán poco después.

             Yudkowsky enfatiza que ésa no es solo su opinión, sino la de “muchos Investigadores inmersos en estos temas”. Y no lo ve como “una posibilidad remota”, sino como que “eso es lo que obviamente sucedería“.

.

¿Cómo salvarnos? Una opinión inquietante sobre la Inteligencia Artificial

             Yudkowsky indica que se abstuvo de firmar la Carta Abierta porque esta “subestima la gravedad de la situación y pide muy poco para resolverla”. “Si hubiera un plan para que la Tierra sobreviviera, si sólo aprobáramos una moratoria de seis meses, respaldaría ese Plan”, dice el Investigador y propone lo siguiente:

  • Cerrar todos los grandes clústeres de procesadores gráficos (GPU, por sus siglas en inglés): Las grandes granjas de computadoras donde se refinan las IA más poderosas.
  • Poner un límite a la cantidad de poder de cómputo que cualquiera puede usar para entrenar un sistema de IA. Y reducirla en los próximos años para compensar los algoritmos de entrenamiento más eficaces.
  • No hacer excepciones para Gobiernos y Estamentos militares.
  • Concluir Acuerdos Multinacionales inmediatos para evitar que las actividades prohibidas se trasladen a otros lugares.
  • Monitorear todas las GPU vendidas.

             “Si la Inteligencia dice que un país fuera del Acuerdo está construyendo un clúster de GPU, que tenga menos miedo de un conflicto a tiros entre naciones que de que se viole la moratoria. Hay que estar dispuesto a destruir un Centro de Datos rebelde mediante un ataque aéreo”, opina el Investigador.

             “Hay que cerrarlo todo”, concluye. “No estamos listos. No estamos en camino de estar significativamente más preparados en el futuro previsible. Si seguimos adelante con esto, todos morirán. Incluidos los niños, que no eligieron esto y no hicieron nada malo”, advierte. “La IA no te ama, ni te odia, pero estás hecho de átomos que puede usar para otra cosa”, recuerda Yudkowsky.

.

Comentario de esta Casa. Una opinión inquietante sobre la Inteligencia Artificial

.

             Cuando hace varios años leí por primera vez un artículo sobre la Inteligencia Artifical, la idea no me agradó, me dio miedo. No puedo decir por qué. Fue algo instintivo. Fue rememorar por un instante las películas de «Terminator», pero vividas en primera persona, no en la pantalla y lejos. 

.

             Conforme han pasado los años y se han ido realizando prototipos, ya no estoy solo en mi recahzo a la IA. Porque si todo el mundo fuera responsable y prudente, se podría construir algo nuevo manteniendo el control de lo que se hace. Pero hay personas distópicas, incontroladas e incontrolables, que harán o han hecho cosas irresponsables y arriesgadas. Que no tienen en cuenta las consecuencias de sus actos y decisiones. Y con una manada de gente así no se puede estar seguro de nada.

.

             La opinión de este artículo refleja bastante bien la situación a la que se podria llegar o se llegará en un futuro no lejano. Por la irresponsabilidad de más de una Empresa perdida en cualquier lugar del mundo.