¿Andrés Ng? ¿Nick Bostrom? ¿Apócrifo?
Estimado Investigador: se le preguntó a un importante investigador de inteligencia artificial (IA) si temía la posibilidad de que robots malévolos superinteligentes causaran estragos en un futuro cercano, y respondió “No”.
Ilustró su respuesta con la siguiente analogía. Preocuparse por la superpoblación humana en Marte es inútil. Es una posibilidad lejana y especulativa. Asimismo, actualmente no existen acciones constructivas a realizar para prevenirlo. Preocuparse por el peligro de los malvados robots asesinos futuristas tampoco tiene sentido.
¿Sabes el nombre del investigador de IA? ¿Podría ayudarme a encontrar una cita?
Cita del investigador: En marzo de 2015, se llevó a cabo en San José, California, una conferencia centrada en la tecnología GPU (unidad de procesamiento de gráficos). El discurso de apertura estuvo a cargo del científico informático Andrew Ng, exdirector del laboratorio de inteligencia artificial de la Universidad de Stanford y cofundador del proyecto Google Brain. Ng sostuvo que la discusión sobre “robots asesinos malvados” fue una “distracción innecesaria”. El siguiente extracto se ha transcrito de un video de YouTube de la dirección:
No veo un camino realista para que nuestra IA, nuestras redes neuronales, se vuelvan conscientes y se vuelvan malvadas. Creo que estamos construyendo más y más software inteligente. Eso es una gran cosa. . . . Pero hay una gran diferencia entre inteligencia y sensibilidad, y creo que nuestras máquinas son cada vez más inteligentes. No veo que se vuelvan conscientes.
Ng minimizó el peligro de los sistemas autónomos de IA malévolos empleando una analogía que se refiere a la posibilidad futurista de superpoblación en Marte. Negrita añadida a extractos por AN:
No trabajo para evitar que la IA se vuelva malvada hoy, por la misma razón, porque no creo que podamos progresar productivamente en eso. Así que no trabajo para evitar que la IA se vuelva maligna por la misma razón por la que no trabajo en el problema de la sobrepoblación en el planeta Marte.
A continuación se muestran citas seleccionadas adicionales en orden cronológico.
Sitio web de noticias sobre tecnología “The Register” publicó un artículo sobre el discurso de Ng el día que se pronunció. El artículo incluía una cita de Ng:
“Hay una gran diferencia entre inteligencia y sensibilidad. Podría haber una raza de robots asesinos en un futuro lejano, pero no me esfuerzo por no volver malvada a la IA hoy por la misma razón por la que no me preocupo por el problema de la superpoblación en el planeta Marte”.< /fuerte>
En mayo de 2015, el sitio web “Wired” publicó una entrevista con Ng realizada a través de Skype, y revisó el tema de la IA peligrosa:
Creo que dentro de cientos de años, si las personas inventan una tecnología de la que aún no hemos oído hablar, tal vez una computadora podría volverse maligna. Pero el futuro es tan incierto. No sé qué va a pasar dentro de cinco años. La razón por la que digo que no me preocupa que la IA se vuelva maligna es la misma razón por la que no me preocupa la sobrepoblación en Marte. Dentro de cientos de años, espero que hayamos colonizado Marte. Pero nunca hemos puesto un pie en el planeta, entonces, ¿cómo podemos preocuparnos productivamente por ¿Este problema ahora?
En noviembre de 2015, “The New Yorker” El sitio web publicó un perfil del filósofo de la Universidad de Oxford, Nick Bostrom, que teme el surgimiento de una IA superinteligente. El artículo incluía una instancia simplificada de la cita sin atribución:
El verano pasado, Oren Etzioni, el C.E.O. del Instituto Allen para la Inteligencia Artificial, en Seattle, se refirió al miedo a la inteligencia artificial como un “complejo de Frankenstein”. Otro destacado investigador declaró: “No me preocupo por eso por la misma razón por la que no me preocupo por la superpoblación en Marte”
En conclusión, Andrew Ng merece crédito por el comentario que se examina. AN sugiere usar la versión hablada durante el video de YouTube o la versión en “Wired” entrevista.