La era de los datos y lo que podría venir. Conversaciones entre Ren Zhengfei y Yuval Noah Harari en Davos
Zanny Minton Beddoes, Editora en Jefe de The Economist, facilita una interesante entrevista entre Ren Zhengfei, fundador y presidente de Huawei y Yuval Noah Harari, historiador y escritor israelí, ayer en el marco del WEF de Davos
Zanny Minton Beddoes: Traté de encontrar cosas que tienen en común y creo que es un amor por la historia. Obviamente eres un historiador profesional, profesor Yuval. Sr. Ren, diría que tal vez sea un excelente historiador aficionado. Te has centrado mucho en las lecciones de la historia. Así que creo que ambos están extremadamente equipados para contarnos cómo será este futuro. Y vamos a sacudir la próxima media hora tratando de responder tres preguntas generales.
Primero acerca de lo que está en juego ¿Cuánto le importa a la humanidad, al mundo que tengamos esta carrera armamentista tecnológica? ¿Es simplemente una cuestión de dominio del mercado, o hay preguntas más profundas sobre el futuro de los sistemas de mercado, el futuro de nuestras democracias, el futuro de quién tiene el dominio global? ¿Lo que está en riesgo?
En segundo lugar, ¿cuáles son las consecuencias de la carrera armamentista tecnológica? ¿Lo que pasa? ¿Nos dividimos en un mundo de dos ecosistemas? ¿Y qué significa eso?
Y en tercer lugar, ¿qué hacemos para evitar los peores resultados? Es un intento de Davosiano de terminar con una nota optimista. Así que me gustaría que nos diga exactamente cómo nos aseguramos de obtener los mejores resultados.
Así que voy a comenzar, profesor Yuval, con usted. Para darnos forma … ¿Qué está en juego? Y quiero comenzar con una cita de uno de sus libros. Dijiste que los humanos, escribiste que los humanos cambiarán más en los próximos cien años que en su existencia anterior. La IA y la biotecnología podrían socavar la idea de la libertad individual, haciendo obsoletos los mercados libres y la democracia liberal. La democracia, que se mantiene en su forma actual, no puede sobrevivir a la fusión de la biotecnología y la tecnología de la información. Entonces, ¿sería justo decir si es que crees que hay una gran cantidad en juego en esto y por qué?
Yuval Noah Harari: Si mucho. Entonces, quiero decir, en un nivel, el nivel más superficial, sería una repetición de la revolución industrial del siglo XIX cuando los líderes de la industria básicamente tienen el poder de dominar el mundo entero económica y políticamente. Y puede volver a ocurrir con la revolución de la IA y la revolución biotecnológica del siglo XXI. Y ya estamos comenzando, entiendo la carrera armamentista actual como una carrera armamentista imperial, que puede dejar muy pronto a la creación de colonias de datos. No es necesario enviar a los soldados si tienes todos los datos para un país en particular, pero en una perspectiva mucho más amplia y profunda, creo que realmente va a dar forma al futuro de la humanidad y el futuro de la vida misma, porque con las nuevas tecnologías pronto le darás a algunas corporaciones y gobiernos la capacidad de hackear a seres humanos.
Se habla mucho de piratear computadoras, teléfonos inteligentes, correos electrónicos, cuentas bancarias, pero lo realmente importante es piratear seres humanos. Así es, piratear seres humanos. Se necesita mucho conocimientos biológico, mucha potencia informática y, sobre todo, muchos datos. Si tienes suficientes datos sobre mí y suficiente potencia informática en conocimiento biológico, puedes tener mi cuerpo, mi cerebro, mi vida. Puedes llegar a un punto en el que me conoces mejor que yo mismo. Y una vez que se llegue a ese punto y estamos muy cerca de ese punto, entonces la democracia, el mercado libre como nosotros … en realidad todos los sistemas políticos, también los regímenes autoritarios, no tenemos idea de lo que sucede una vez que se pasa ese punto.
Zanny Minton Beddoes: ¿Crees que China, que en muchos aspectos está más avanzada en cuanto a ser un estado de vigilancia, es un presagio de hacia dónde van las cosas?
Yuval Noah Harari: Creo que actualmente vemos competencia entre la vigilancia estatal en China y el capitalismo de vigilancia en los Estados Unidos. Entonces, no es que Estados Unidos esté libre de vigilancia. También hay mecanismos muy sofisticados de vigilancia allí. Creo que en la competencia en este momento, no hay un tercer jugador serio en esta carrera armamentista. Y el resultado de la carrera armamentista realmente va a dar forma a cómo viviremos todos en el planeta dentro de veinte a cincuenta años: humanos, otros animales, nuevos tipos de entidades.
Zanny Minton Beddoes: Sr. Ren, usted escuchó eso. ¿Compartes la evaluación del profesor Harari sobre lo que está en juego, que el futuro de la humanidad y los sistemas políticos están en juego?
Ren: He leído La breve historia del mañana del profesor Harari y 21 lecciones para el siglo XXI . Estoy de acuerdo con muchos de sus puntos de vista sobre las reglas que gobiernan la sociedad humana y el conflicto entre la tecnología y las futuras estructuras sociales y las ideologías cambiantes.
Primero, debemos entender que la tecnología es buena. El desarrollo tecnológico no es malo; es bueno. La humanidad tiene una larga historia de desarrollo. Durante miles de años, el avance tecnológico fue muy lento, lo cual estuvo muy sincronizado con la evolución biológica. Entonces la gente no entró en pánico. Cuando aparecieron máquinas textiles, barcos de vapor y trenes, la gente tenía algunos temores. Sin embargo, a medida que la sociedad industrial progresaba, estos temores desaparecieron.
Después de ingresar a la sociedad de la información, los intervalos entre auges tecnológicos comenzaron a ser aún más cortos. Ahora, hemos hecho grandes avances en tecnologías electrónicas. Aunque la ley de Moore todavía limita el desarrollo de tecnologías electrónicas, estamos seguros de que podremos reducir los conjuntos de chips a dos o tres nanómetros.
En segundo lugar, debido a las grandes mejoras en la potencia informática, las tecnologías de la información son como semillas que se extienden por todas partes. Los avances en biotecnología, física, química, neurología y matemáticas, así como las innovaciones interdisciplinarias y de dominio cruzado han creado un impulso significativo para el avance de la humanidad. Cuando ese impulso llega a su punto de inflexión, dará lugar a una explosión de inteligencia. Esta gran explosión tecnológica puede asustar a las personas. ¿Esa explosión es buena o mala? Para mí, creo que es bueno.
Creo que los humanos siempre han podido usar nuevas tecnologías para beneficiar a la sociedad, en lugar de destruirla. Eso es porque la mayoría de las personas aspira a una buena vida, en lugar de una miserable.
Justo después de mi nacimiento, la bomba atómica explotó en Hiroshima; Cuando tenía alrededor de siete y ocho años, descubrí que el mayor temor de las personas era la bomba atómica. La gente de todo el mundo le tenía miedo. Sin embargo, cuando tenemos una visión a largo plazo de la historia, nos damos cuenta de que la tecnología atómica se puede utilizar para generar energía en beneficio de la sociedad. Sus aplicaciones en radioterapia y otros campos también han beneficiado a la humanidad. Debido a esto, no hay necesidad de entrar en pánico por la IA hoy. Si bien las bombas atómicas pueden dañar a las personas, el desarrollo de la IA hoy en día no puede causar tanto daño.
Por supuesto, nuestra empresa solo está estudiando IA débil, que se limita a un sistema cerrado, reglas claras y un conjunto completo de información. Todavía requiere ciertas condiciones y el soporte de datos para impulsar avances industriales, agrícolas, científicos y médicos. Eso significa que su aplicación tiene límites. Existen límites en muchas aplicaciones, incluidas las tecnologías de conducción autónoma, minería y farmacéutica. Con la mejora de la IA dentro de estos límites, se creará una gran riqueza.
Algunos dicen: «Muchas personas perderían sus empleos en el proceso de creación de riqueza». Este es un problema social, y crear más riqueza es mejor que crear menos. En la sociedad actual, incluso los pobres tienen una riqueza absoluta mayor que la que tenían hace unas décadas. La brecha cada vez mayor entre ricos y pobres no significa que los pobres caigan en condiciones más severas de pobreza absoluta. Resolver los conflictos causados por la creciente brecha de riqueza es un problema social, no tecnológico. Cómo distribuir equitativamente la riqueza es una cuestión de política y ley. Es un desafío para la gobernanza social.
Zanny Minton Beddoes : Gracias. Has planteado una gran cantidad de cuestiones realmente interesantes. Quiero centrarme en dos de ellos y pedirle al profesor Harari que responda. Una es la comparación entre la bomba atómica y la energía atómica en general. ¿Es esa una analogía apropiada? Porque creo que es una analogía muy interesante en el contexto de esta discusión sobre la carrera armamentista tecnológica. Estoy seguro de que todos en esta sala, Sr. Ren, estarían de acuerdo en que la tecnología tiene enormes beneficios. Estoy seguro de que el profesor Harari también estaría de acuerdo con eso. Pero, ¿cree que hay algo, y vuelvo a preguntarle de nuevo al profesor Harari, fundamentalmente diferente sobre la naturaleza de la IA y la biotecnología, lo que significa que es significativamente más peligroso que los avances tecnológicos anteriores?
Yuval Noah Harari: Sí, quiero decir, la comparación con la bomba atómica es importante. Nos enseña que cuando la humanidad reconoce una amenaza común, puede unirse, incluso en medio de una Guerra Fría, para establecer reglas y prevenir lo peor, que es lo que sucedió en la Guerra Fría.
El problema con la IA en comparación con las armas atómicas es que el peligro no es tan obvio. Y al menos para algunos actores, ven un enorme beneficio al usarlo. Con la bomba atómica, lo mejor es que todo el mundo sabe que cuando la usas, es el fin del mundo. No se puede ganar una guerra nuclear, una guerra nuclear total. Pero mucha gente piensa, y creo que con alguna buena razón, que puedes ganar una carrera armamentista con IA. Y eso es muy peligroso, porque la tentación de ganar la carrera y dominar el mundo es mucho mayor.
Zanny Minton Beddoes: Realmente te voy a poner en el lugar allí. ¿Crees que es una mentalidad más en Washington o en Beijing?
Yuval Noah Harari: Diría que Beijing y San Francisco. Washington … no entienden completamente las implicaciones de lo que está sucediendo. Creo que actualmente la carrera es realmente entre Beijing y San Francisco, pero San Francisco se está acercando a Washington porque necesitan el respaldo del gobierno en esto. Entonces no está completamente separado. Entonces esa era la pregunta, ¿cuál era la otra?
02 Zanny Minton Beddoes: La segunda pregunta era sobre IA. Lo has respondido ampliamente, y realmente quiero volver al Sr. Ren para responder a eso. Porque eres claramente … el objetivo de mucha preocupación estadounidense … Dado lo que acabamos de hablar, ¿entiendes por qué los estadounidenses están tan preocupados? ¿Es una preocupación razonable tener que China, un régimen autoritario, debería estar a la vanguardia de las tecnologías que pueden, como dijo el profesor Harari, posiblemente moldear las sociedades futuras y la libertad individual? ¿Es una preocupación razonable la que ellos tienen?
Ren: El profesor Harari dijo que el gobierno de los Estados Unidos realmente no entiende la IA. Creo que el gobierno chino podría no entenderlo tampoco. Si los dos países realmente quieren desarrollar IA, deberían invertir más en educación básica e investigación básica. La educación de China todavía está estancada en una era industrial, y el sistema educativo se centra en cultivar ingenieros. Por lo tanto, es imposible que la IA crezca rápidamente en China. El desarrollo de la IA requiere muchos matemáticos, físicos, biólogos, químicos, etc. También requiere una gran cantidad de supercomputadoras, conexiones y almacenamiento. China es solo un niño pequeño en estas áreas. Así que creo que Estados Unidos se está preocupando demasiado. Se ha acostumbrado a ser el campeón reinante y cree que debería ser el mejor en todo. Si a alguien más le va bien en algo, puede llegar a sentirse incómodo. Sin embargo, lo que Estados Unidos piensa no cambiará las tendencias mundiales.
Creo que eventualmente la humanidad debería hacer un buen uso de la IA y aprender cómo usarla para beneficiarnos a todos. Como dijo el Sr. Harari, se deben desarrollar reglas para regular lo que podemos investigar y lo que no podemos, para que podamos controlar cómo se desarrolla. También hay problemas éticos en las tecnologías. En mi opinión, la idea del Sr. Harari de que la electrónica se infiltre en nuestras mentes no se hará realidad en los próximos 20 a 30 años o incluso después de eso. Sin embargo, la IA primero transformará la producción, mejorará la productividad y creará más riqueza. Mientras haya más riqueza, el gobierno puede distribuirla para aliviar los conflictos sociales.
En mi reciente artículo en The Economist , cité una frase: «¿Qué pasaría si los semiconductores se integraran con la genética?» Pero lo sacaron porque comenzaría una discusión. Cuando me dijeron que había sido eliminado, lo acepté de inmediato, porque sé que es un problema complicado.
03 Zanny Minton Beddoes: Permítanme seguir preguntando, es posible que los Estados Unidos no entiendan y, en su opinión, los Estados Unidos pueden estar sobrevalorando las amenazas de China. ¿Pero cuáles son las consecuencias de esta carrera armamentista tecnológica actual? ¿Y cuáles son las consecuencias de la lista negra de Huawei en los Estados Unidos? ¿Estamos viendo cómo el mundo se transforma en dos ecosistemas tecnológicos? ¿Es eso lo que va a pasar?
Ren: Huawei, como compañía, solía ser fanático de los EE. UU. Una razón importante para el éxito de Huawei hoy es que aprendimos la mayoría de nuestras prácticas de gestión de las empresas estadounidense. Desde la fundación de Huawei, hemos contratado a docenas de firmas consultoras estadounidenses para que nos enseñen cómo administrar la empresa. Ahora todo nuestro sistema de gestión es muy similar al de las empresas estadounidenses. Por lo tanto, Estados Unidos debería estar orgulloso, ya que las empresas estadounidenses han contribuido a nuestro desarrollo. Somos un modelo en términos de cuán exitosamente los EE. UU. pueden exportar sus prácticas de gestión.
Por lo tanto, desde esta perspectiva, no creo que EE. UU. deba preocuparse demasiado por la posición y el crecimiento de Huawei en el mundo. Ser incluido en la Lista de Entidades de los Estados Unidos el año pasado no tuvo mucho impacto en nosotros. Básicamente hemos podido resistir los ataques, ya que comenzamos a hacer preparativos hace más de 10 años. Este año, Estados Unidos puede intensificar sus ataques contra nosotros. Nos veremos afectados, pero no significativamente. Hace más de una década, Huawei era una empresa muy pobre. Hace 20 años, no tenía mi propia casa, y alquilé un pequeño apartamento, que tenía solo unos 30 metros cuadrados. ¿Dónde estaba nuestro dinero? Todo se invirtió en la investigación y el desarrollo de Huawei. Si hubiéramos sentido que estábamos a salvo con los Estados Unidos, no habríamos hecho nuestro plan B. Pero no nos sentimos así. Por eso gastamos cientos de miles de millones de yuanes haciendo preparativos. Como resultado, resistimos la primera ronda de ataques estadounidenses el año pasado. En cuanto a la segunda ronda de ataques este año, con la experiencia que obtuvimos y las lecciones que aprendimos el año pasado, estamos seguros de que podremos resistir estos ataques.
¿Se dividirá el mundo en dos ecosistemas tecnológicos? No lo creo. Porque la ciencia se trata de la verdad, y solo hay una verdad. Cuando cualquier científico descubre la verdad, se extenderá a todo el mundo. Las teorías básicas de la ciencia y la tecnología están unificadas en todo el mundo, mientras que puede haber una diversidad de invenciones tecnológicas, que representan diferentes aplicaciones de la ciencia. Por ejemplo, hay varios modelos de automóviles que compiten entre sí, y esta competencia es propicia para el progreso social. Por lo tanto, no es que la sociedad deba promover solo un conjunto de estándares técnicos. ¿Se dividirá el mundo? No, ya que la base de la ciencia y la tecnología está unificada.
04 Zanny Minton Beddoes: Profesor Harari, ¿cuál es su opinión sobre eso? Quiero citarte algo que escribiste en The Economist , de hecho. Una carrera armamentista de IA o una carrera armamentista de biotecnología casi garantiza el peor resultado. El perdedor será la humanidad misma.
Yuval Noah Harari: Sí, porque una vez que estás en una situación de carrera armamentista, muchos desarrollos tecnológicos y experimentos son peligrosos, y todos pueden reconocer que son peligrosos. Y no quieres ir en esa dirección, al menos no ahora. Estás pensando esto: Bueno, no queremos hacerlo; somos los buenos chicos; pero no podemos confiar en que nuestros rivales no lo hagan. Los estadounidenses deben estar haciéndolo. Los chinos deben estar haciéndolo. No podemos quedarnos atrás. Entonces tenemos que hacerlo. Esa es la lógica de la carrera armamentista.
Y un ejemplo muy claro son los sistemas de armas autónomos, que es una verdadera carrera armamentista. Y no es necesario ser un genio para darse cuenta de que este es un desarrollo muy peligroso. Pero todos dicen lo mismo: no podemos quedarnos atrás. Y es probable que esto se extienda a más y más áreas. Ahora, estoy de acuerdo en que es poco probable que veamos computadoras y humanos fusionarse en cyborgs en los próximos veinte o treinta años.
Creo que hay tantas cosas que podemos ver el desarrollo en IA en las próximas dos décadas. Pero el punto más importante en el que centrarse es en lo que mencioné como pirateo de seres humanos. El punto en el que tienes suficientes datos sobre las personas y tienes suficiente poder de cómputo para conocer a las personas mejor de lo que se conocen a sí mismas.
Ahora me gustaría saber cuáles son sus pensamientos, también para las personas en el pasillo. ¿Estamos en un punto … No soy un tecnólogo, pero las personas que realmente entienden, estamos cerca o en el momento en que Huawei o Facebook o el gobierno o cualquiera que pueda piratear sistemáticamente a millones de personas, lo que significa conocerlos mejor que ellos? conocerse a sí mismos. Saben más sobre mí que yo sobre mí, sobre mi condición médica, sobre mis debilidades mentales, sobre mi historia de vida. Una vez que llegue a ese punto, la implicación es que pueden predecir y manipular mis decisiones mejor que yo. No es perfecto. Es imposible predecir algo perfectamente. Solo tienen que hacerlo mejor que yo.
Zanny Minton Beddoes: ¿Le preguntamos al Sr. Ren, crees que Huawei ya está en esa etapa? ¿Conoces a la gente mejor que ellos mismos?
Ren:No estamos seguros de si la ciencia y la tecnología que el Sr. Harari está imaginando se harán realidad o no, pero no rechazaré su imaginación. Como empresa, debemos tener una comprensión más profunda de nuestros clientes y sus datos e información. Por ejemplo, ¿es posible que la minería dependa únicamente de la IA, sin ningún trabajo manual? Creo que es posible La minería remota desde varios miles de kilómetros de distancia se ha convertido en una realidad. Si una mina se encuentra en una región congelada o de gran altitud, la IA demostrará su valía allí. En el futuro, las principales minas, como las de Brasil, pueden adoptar este modelo de minería remota. Sin embargo, esto requiere que tengamos una comprensión profunda de las minas. Para comprender mejor las minas, los expertos en tecnología deben trabajar con expertos en minería. Del mismo modo, la telemedicina solo es posible cuando los médicos y los dispositivos electrónicos están integrados.
El Sr. Harari dijo que incrustar dispositivos electrónicos en humanos nos hará dioses. No creo que tengamos que preocuparnos por eso, porque los humanos podemos morir a los 80 y nuestras almas no pueden continuar. Por eso no creo que los humanos se conviertan en dioses.
05 Zanny Minton Beddoes: ¿Qué pasa con el otro tema que el profesor Harari planteó sobre armas autónomas? Porque eso parece ser uno donde estamos allí. Los sistemas militares los tienen. ¿Cuál es tu opinión sobre eso? ¿Crees que son tan peligrosos como dice el profesor Harari? ¿Y cómo se detiene la lógica de la destrucción mutuamente asegurada de las armas autónomas?
Ren: No sé mucho sobre asuntos militares, ni soy un experto militar. Pero si todos pueden crear armas, las armas ya no serán armas, sino que serán como palos.
06 Audiencia: Solo quiero preguntarle a Harari. ¿Por qué crees que hay una carrera armamentista de inteligencia artificial entre China y los Estados Unidos? Al menos uno ve que las aplicaciones en China son todas para uso civil. Y parece que no hay mente para competir realmente. ¿Hay una carrera armamentista?
Yuval Noah Harari: Bueno, por carrera armamentista, no me refiero necesariamente a desarrollar armas. Hoy, para conquistar un país, no necesitas necesariamente armas.
Audiencia: Lo que quise decir fue, ¿cuál es la diferencia entre la competencia comercial habitual versus cuál es el estado, ya sabes, el estado …?
Yuval Noah Harari: No hay una frontera clara allí. Eso sucedió en el siglo XIX y antes con el imperialismo europeo. No hay frontera entre el imperialismo comercial y el imperialismo militar o político. Ahora con datos, vemos este nuevo fenómeno de colonialismo de datos para controlar un país, digamos, África, Sudamérica o Medio Oriente. Imagínense esta situación dentro de 20 años cuando alguien, tal vez en Beijing, tal vez en Washington o San Francisco, conozca toda la historia médica y sexual personal de cada político, juez y periodista en Brasil o en Egipto. Y solo imagina la situación. No son armas. No son soldados. No son tanques. Es solo la información personal completa del próximo candidato a la Corte Suprema de los EE. UU., De alguien que se postula para presidente de Brasil. Y conocen sus debilidades mentales. Saben algo que hicieron cuando estaban en la universidad, cuando tenían 20 años. Lo saben todo. ¿Sigue siendo un país independiente o es una colonia de datos? Así que esa es la carrera armamentista …
07 Audiencia: Soy un modelador global de la joven comunidad del Foro Económico Mundial. Entonces mi pregunta será para los dos. En primer lugar, me gustaría preguntar, ya saben que los gobiernos y las grandes empresas de todo el mundo son tan poderosos que en realidad pueden moldear la vida de los consumidores. ¿Cuál es realmente el poder que le queda a la gente normal? Soy técnico, así que tengo mi propia opinión sobre la seguridad de la información. Pero, ¿cuál es el poder que le queda a los clientes normales?
Ren: A medida que los intercambios técnicos se vuelven más fáciles, los humanos comprenderán mejor las cosas y serán cada vez más inteligentes. En realidad, esto es lo que ya está sucediendo. Por ejemplo, es posible que no comprendamos los libros de texto de los estudiantes de primaria de hoy. ¿Por qué aprenden estas cosas? Los cursos que solíamos tomar en nuestras universidades ahora se toman en la escuela secundaria. Esto significa que hemos progresado en la era de la información. Sin embargo, aún necesitamos dominar nuevos conocimientos. Diferentes personas pueden tener diferentes grados de conocimiento y, por lo tanto, pueden tener diferentes trabajos. La gente seguirá tomando la iniciativa, en lugar de ser esclavizada.
Zanny Minton Beddoes: Entonces diría que la tecnología está dando a las personas más agencia y más poder.
Ren: si.
Yuval Noah Harari:Creo que la tecnología puede funcionar en ambos sentidos, tanto para limitar como para mejorar las habilidades individuales o la agencia. Y lo que las personas pueden hacer, especialmente los técnicos e ingenieros, es diseñar una tecnología diferente. Por ejemplo, ahora se requiere mucho esfuerzo para construir herramientas de vigilancia que vigilen a las personas al servicio de las corporaciones y los gobiernos. Pero algunos de nosotros podemos decidir simplemente construir un tipo opuesto de tecnología. La tecnología es neutral en esto. Puede diseñar una herramienta que vigile al gobierno y a las grandes corporaciones al servicio de las personas. Les gusta tanto la vigilancia que no les importaría si los ciudadanos los vigilan. Por ejemplo, eres ingeniero. Cree una herramienta de inteligencia artificial que controle la corrupción gubernamental. O construyes un antivirus para la computadora. Puedes crear un antivirus para la mente que te avise cuando alguien intente hackearte o manipularte. Entonces eso depende de ti.
Zanny Minton Beddoes: Nos hemos quedado sin tiempo. Me disculpo. Pero ese es un lugar apropiadamente optimista para terminar: crear herramientas que puedan empoderar al individuo en esto. Muchas gracias a ambos por los puntos fascinantes.