Escuchá esta nota
EL DIARIO digital
minutos
El autor de "Sapiens" dialogó con la prensa en español para presentar "Nexus", su nuevo libro sobre los peligros que podrían venir. Explicó por qué es diferente de todas las tecnologías anteriores, qué implicaría su autonomía, cómo amenaza la privacidad y qué podría hacerle a nuestra psicología y nuestras estructuras sociales.
En su nuevo libro, Nexus, Yuval Noah Harari alerta sobre los peligros de la inteligencia artificial (IA), que es "un agente", es decir una entidad con capacidad de actuar en el mundo, no ya una mera herramienta del ser humano. "Es un agente independiente", repitió en diálogo con periodistas de América Latina y España. "Por eso es diferente de cualquier tecnología anterior que hayamos inventado". Como si la bomba atómica pudiera ser capaz de decidir dónde cae y mejorar su propia tecnología por sí misma.
La IA puede. "Empieza produciendo textos, imágenes, código informático. Y en última instancia podría crear una IA más poderosa", explicó. Una explosión de la IA que quedaría fuera del control humano.
"La gente del sector está atrapada en esta mentalidad de carrera armamentística, algo extremadamente peligroso", subrayó. La idea de desarrollar la IA tan rápido como se pueda y luego, en el camino, a medida que aparezcan los problemas, ir viendo cómo se pueden resolver, le resulta descabellada. "Es como si alguien pusiera en la carretera un automóvil sin frenos y te dijera: 'Nos centramos en que vaya todo lo rápido que pueda, y si hay algún problema en el camino, buscamos la manera de inventar unos frenos e instalarlos", ironizó. "No funciona así en los coches". Y difícilmente vaya a funcionar con la IA, cree el autor de Sapiens.
En un hotel de los Estados Unidos, donde está de gira para la presentación de Nexus, que también ha salido en inglés sus libros han vendido más de 45 millones de ejemplares en 65 idiomas, Harari se centró en uno de los temas de su nueva obra, que toca en un punto sensible del presente: cómo afecta a la sociedad la tendencia humana a invocar poderes que luego no podemos controlar.
La IA, una inteligencia que no está basada en carbono, como el cerebro de las personas, sino en materiales inorgánicos, nace libre de muchas de las limitaciones orgánicas de nuestras neuronas. "Los chips de silicio pueden generar espías que nunca duermen, banqueros que nunca olvidan y déspotas que nunca mueren", advirtió el profesor que dicta historia en la Universidad Hebrea de Jerusalén.
Desde luego, reconoció en la rueda de prensa, la IA "tiene un enorme potencial positivo". Quizá no muy lejos en el siglo XXI haya una revolución en la atención de la salud, dio como ejemplo: "Hoy hay escasez de médicos en muchos países, pero podríamos tenerlos en número ilimitado, y con mucho más conocimiento que cualquier médico humano, actualizado a diario con todos los hallazgos de toda la investigación en todo el mundo. Podríamos tenerlos con nosotros las 24 horas del día dándonos consejos adaptados a nuestra biología individual. Esto es algo que los médicos humanos no pueden hacer y, además, será mucho más barato que un médico humano".
Y, sin embargo, él eligió que Nexus se concentrara en "el lado peligroso de la IA". La razón es sencilla, contó: "Tenemos a todas estas corporaciones extremadamente ricas y poderosas que inundan a la gente con las historias positivas, con las predicciones optimistas, e ignoran los peligros. Así que se convierte en el trabajo de los filósofos, los historiadores como yo, iluminar el otro lado". Como hombre de ciencia, nunca se le ocurriría oponerse al desarrollo de un saber. "Sólo digo que hay que invertir más en seguridad. Asegurarse de que esta tecnología es segura, algo de sentido común en todas las demás industrias".