El autor del best-seller "Sapiens", Yuval Noah Harari, y el jefe de investigación de Meta, Yann LeCun, debatieron los peligros de las nuevas tecnología y el futuro de las nuevas generaciones.

La Inteligencia Artificial es el tema del momento. En un debate propuesto por el medio francés Le Point, el investigador Yann LeCun, uno de los primeros "profetas de las IA, debatió con Yuval Noah Harari, historiador y escritor israelí.

El primero no ve motivos para entrar en pánico ante el surgimiento de esta disciplina, mientras que el segundo teme que conduzca al colapso de nuestra civilización.

Yuval Noah Harari firmó la carta abierta lanzada por el think tank "The Future of Life", junto con cerca de 30.000 investigadores, pidiendo una pausa de seis meses en el desarrollo de herramientas más poderosas que GPT-4 , el modelo de lenguaje que aceleró la adopción de ChatGPT. en un tiempo récord, mientras que Yann LeCun vio en este llamamiento solo una protesta de los agoreros.

El encuentro propuesto por Le Point se celebró por videoconferencia entre Nueva York y Jerusalén ambos argumentaron sus puntos de vista sobre las promesas, los peligros y el futuro de la IA.

Le Point: En primer lugar, ¿cuál es su definición de inteligencia?

Yann LeCun: Inteligencia significa ser capaz de percibir una situación, luego planificar una respuesta y luego actuar de manera de lograr un objetivo, por lo tanto, ser capaz de perseguir una situación y planificar una secuencia de acciones.

Yuval Noah Harari: La inteligencia es la capacidad de resolver problemas. Desde organismos unicelulares que buscan comida hasta humanos que descubren cómo volar a la luna, eso es inteligencia. No es lo mismo que la conciencia. En los humanos, se mezclan. La conciencia es la capacidad de sentir cosas, dolor, placer, amor, odio. Nosotros, los humanos, a veces usamos la conciencia para resolver problemas, pero no es un ingrediente esencial. Muchos organismos resuelven problemas sin tener conciencia, como las plantas y los microorganismos. Las máquinas también pueden ser inteligentes y resolver problemas sin tener ningún sentimiento.

Yann LeCun: Todavía no, pero sucederá.

image.png
Sapiens es un libro de no ficción del historiador israelí Yuval Noah Harari

Sapiens es un libro de no ficción del historiador israelí Yuval Noah Harari

¿Cuando? ¿Dentro de cinco, diez años?

Yann LeCun: Es muy difícil predecir cuánto tiempo llevará. Pero no hay duda en mi mente de que tendremos máquinas al menos tan inteligentes como los humanos. Y si tienen la capacidad de planificar y establecer metas, también tendrán el equivalente de los sentimientos, porque muy a menudo las emociones son solo una anticipación de los resultados. Debe ser capaz de anticipar lo que sucederá, ya sea que el resultado sea bueno o malo, desea tener la capacidad de planificar, y esa es una de las principales causas de la emoción. Como humanos, si anticipamos que una situación puede ser peligrosa, sentimos miedo, lo que nos motiva a explorar diferentes opciones para escapar de la situación peligrosa. Si las máquinas pueden hacer esto, tendrán emociones.

Yuval Noah Harari: Es posible, pero no inevitable. Defino la conciencia simplemente como la capacidad de tener sentimientos. Una vez que puedes sentir placer, tienes conciencia. La autoconciencia es otra cosa, es la capacidad de reflexionar sobre el hecho de que sientes emoción. Y tenemos conciencia de nosotros mismos sólo una parte muy pequeña del tiempo. Según esta definición, creo que es totalmente posible que las máquinas adquieran conciencia o tengan sentimientos. Pero no es inevitable. Las máquinas podrían estar progresando a lo largo de un camino evolutivo diferente. En la evolución de los humanos, así como de los mamíferos y las aves, la conciencia y la inteligencia han ido de la mano, solucionamos los problemas teniendo sentimientos. Pero podría haber otras rutas para la evolución de la inteligencia, en las que tienes un tipo diferente de inteligencia, que podría ser superior a la inteligencia humana y aun así no involucrar ningún sentimiento en absoluto. Ya es el caso en áreas limitadas como en el ajedrez o en Go. No creo que nadie realmente piense que AlphaGo es feliz cuando gana el juego y, sin embargo, es más inteligente que los humanos en este campo tan limitado. Podría darse el caso, incluso con la inteligencia artificial general, de que nos supere con creces en inteligencia y aún así no sienta ningún tipo de emoción.

Yann LeCun: Ciertamente habrá muchos sistemas que calificaremos como inteligentes. Ya existe si nos fijamos en un reproductor Go o incluso en un sistema que conduce tu coche. No tienen sentimientos, pero en última instancia, si desea que los sistemas tengan cierto nivel de autonomía y funcionen al intentar satisfacer un objetivo, entonces esos sistemas probablemente tendrán el equivalente de las emociones porque entonces tendrán que poder para predecir con anticipación cuál será el resultado de una secuencia particular de acciones.

¿Diría usted que con su reapropiación del lenguaje, ChatGPT es peligroso para nuestra democracia y creencias?

Yann Le Cun: No creo que sea peligroso en este momento, pero la razón por la que podría serlo es que está cerrado, por lo que la gente no puede entenderlo y los investigadores no pueden investigarlo. En mi opinión, la forma de avanzar con los modelos de lenguaje grande es hacerlo abierto. Y usted ve una serie de esfuerzos en todo el mundo hoy en día para producir evidencia que sea de código abierto. Esta es una buena idea desde el punto de vista económico, pero también desde el punto de vista de la seguridad. Y también por el progreso de la investigación y la comprensión de cómo hacer que esas cosas funcionen correctamente y un buen control dirigible. Pero luego, en el lado de la implementación, necesita regulación para asegurarse de que los productos que se implementan en la sociedad tengan un efecto positivo. Y esto es lo mismo para cualquier tecnología. Lo pones en el mercado, tiene que pasar por algún proceso de certificación y existen regulaciones al respecto. Pero creo que si alguien imagina un futuro en el que todos tengan un agente inteligente bajo su control, es como si todos tuvieran una especie de personal trabajando para ellos que son más inteligentes que ellos. Como ex gerente de la industria y profesor universitario, trato de trabajar solo con personas que son más inteligentes que yo. Así que ese es un buen camino para el éxito.Así que la gente no debería sentirse amenazada por eso , debería sentirse empoderada. De la misma manera que su automóvil es más poderoso que usted, imagine un futuro en el que todos estén empoderados con un equipo de máquinas inteligentes que los haga más eficientes, productivos o creativos. Por eso creo que traerá un nuevo Renacimiento, básicamente una nueva Ilustración.

Yuval Noah Harari: La pregunta es ¿en manos de quién está? Podría ser potencialmente maravilloso, pero en las manos equivocadas podría destruir la democracia. Porque la democracia es una conversación entre personas, y qué pasa si tienes estos agentes que son capaces de mantener una conversación mejor que cualquier ser humano.desplegados al servicio de actores irresponsables o malos... Si la conversación entre las personas es pirateada o secuestrada, lo que la IA ahora es totalmente capaz de hacer, eso destruiría los cimientos del sistema democrático. Imagina que estás hablando con alguien en línea y no sabes si es un ser humano o un bot de IA. Y así como con las redes sociales hace diez años vimos una carrera armamentista por la atención, ahora podemos ver una carrera armamentista por la intimidad, y la intimidad es mucho más poderosa que la atención. Si pudiera hacer que alguien confiara en su IA, entonces cualquier pregunta que tenga, no vaya a Googlepara buscar (es por eso que Google se siente amenazado), solo le pides a tu IA. No necesita periódicos porque '¿por qué debería leer el periódico, solo le pido a mi IA que me diga qué hay de nuevo?' Y digamos que, el 95% del tiempo, realmente sirve a tus mejores intereses y aprendes a confiar en él y tienes una conexión muy profunda con esta entidad. Y luego, de vez en cuando, cambia sus puntos de vista políticos en una dirección particular porque esta es la dirección que le dieron las personas que la construyeron y la operaron. Necesitamos protegernos contra estos peligros porque lo que hemos visto anteriormente con los algoritmos de recomendación, no es nada comparado con el poder de tales IA para cambiar la opinión de las personas sobre todo, desde qué productos comprar hasta qué político votar.

image.png
El jefe de inteligencia artificial de Meta, Yann LeCun

El jefe de inteligencia artificial de Meta, Yann LeCun

Yann LeCun: Otra pregunta es ¿cuál es la forma correcta de manejar esto? En el futuro, todas las personas interactuarán con el mundo digital principalmente a través de agentes inteligentes. La película "Her" es una especie de buena imagen de lo que podría suceder en el futuro. Y si el diseño de esos sistemas de IA o las personas que los controlan tienen malas intenciones, pueden pasar cosas muy malas. Pero creo que la analogía correcta para ese mundo es Wikipedia.. La gente confía en Wikipedia. Hay mucho trabajo editorial que se dedica a tratar de mantener esas opiniones bajo control. Así que hay una manera de hacerlo éticamente, y terminamos con algo como Wikipedia, que fue inventado por millones de personas. Y lo que eso significa es que los sistemas de inteligencia artificial del futuro básicamente tendrán que ser financiados por miles de millones de personas que trabajen juntas. Esa es la única forma de hacerlo, por lo que tiene que estar abierto. Así que no creo que vayamos a tener sistemas de IA en el futuro que estén cerrados, que sean propiedad de una sola empresa, como hemos visto hasta ahora, creo que tendrá que ser investigado por muchos gente porque hay muchas maneras en que el sistema puede fallar.

¿Es más peligroso tener un asistente inteligente que acierta en un 95% que uno que alucina la mitad de las veces ?

Yann Le Cun: Los sistemas actuales son de hecho muy poco fiables. Así que son muy buenos como asistentes de redacción, pero no como fuentes confiables de información. Ahora, lo que sucederá en los próximos años es que el diseño básico del sistema cambiará para crear sistemas que sean más directamente orientables, controlables y fácticos, si es necesario, porque a veces no desea que sean fácticos. . Quieres que te cuenten una historia o que escriban un poema o algo así, ¿verdad? Esto va a hacer un gran progreso en los próximos 2 a 5 años. Entonces, eventualmente, esos sistemas serían más confiables que cualquier otro método de búsqueda de información. Y va a ser un poco como la conducción autónoma y la asistencia a la conducción. Actualmente, puedes disponer de sistemas de asistencia a la conducción para tu coche. Son algo confiables en la carretera, pero no en todas partes, y se supone que debes mantener las manos en el volante en todo momento. Actualmente, con los modelos de lenguaje grande autorregresivos, se supone que debes mantener las manos en el teclado en todo momento porque podrían decir cosas estúpidas. No tienen el tipo de sentido común que esperamos de las personas, a pesar de que parecen haber acumulado una enorme cantidad de conocimiento fáctico que pueden regurgitar. Pero será como los autos: la gente aceptará autos completamente autónomos cuando esos autos sean significativamente más confiables que los humanos. No tengo el tipo de sentido común que esperamos de las personas, aunque parezcan haber acumulado una enorme cantidad de conocimiento fáctico que pueden regurgitar. Pero será como los autos: la gente aceptará autos completamente autónomos cuando esos autos sean significativamente más confiables que los humanos. No tengo el tipo de sentido común que esperamos de las personas, aunque parezcan haber acumulado una enorme cantidad de conocimiento fáctico que pueden regurgitar. Pero será como los autos: la gente aceptará autos completamente autónomos cuando esos autos sean significativamente más confiables que los humanos.

Por lo tanto, existe el riesgo de que los seres humanos abandonen todo su poder de decisión en favor de la máquina. ¿Tienes miedo de eso?

Yann LeCun: Vivimos en un mundo donde la mayoría de las decisiones ya las toman las máquinas. Pero no son decisiones muy importantes. Cuando realiza una búsqueda en un motor de búsqueda, los algoritmos determinan el orden en que se le muestra la información. Cuando hablas con tus amigos que hablan un idioma diferente, está traducido y no es perfecto, pero puede ser útil. Cada herramienta puede usarse para cosas buenas y cosas malas, y la usas para cosas que son útiles. Podemos usar un cuchillo para cocinar y para matar. Al final, siempre son los usuarios quienes determinan lo que hacen los algoritmos porque estos algoritmos se adaptan automáticamente de acuerdo con los deseos de los usuarios.

Yuval Noah Harari: No es un cuchillo: un cuchillo no puede decidir si matar a alguien o salvar una vida en una cirugía. La decisión siempre está en manos humanas. La IA es la primera herramienta que potencialmente puede reemplazarnos en la toma de decisiones. Y el peligro es sustancial aquí porque es probable que cometamos errores. Y esto podría ser un error a un nivel del que tal vez no tengamos tiempo para aprender de él. En el siglo XX, los humanos desarrollaron nuevas tecnologías industriales. No sabíamos cómo construir una buena sociedad industrial. Por lo tanto, cometimos algunos errores terribles, experimentos fallidos terribles sobre cómo construir sociedades industriales. El nazismo y el comunismo fueron experimentos fallidos. Las dos guerras mundiales fueron terribles errores. Después de destruir la vida de cientos de millones de personas, aprendimos de estos errores y finalmente aprendimos cómo construir mejores sociedades industriales. Pero con la nueva tecnología del siglo XXI, si volvemos a cometer esos errores, por ejemplo, construir un régimen totalitario basado en IA o comenzar la Tercera Guerra Mundial, tal vez no haya vuelta atrás. La única razón por la que sobrevivimos al siglo XX es porque la tecnología no fue lo suficientemente poderosa como para destruirnos. La tecnología del siglo XXI es mucho más poderosa. Si cometemos el mismo tipo de errores con la tecnología actual, existe una alta probabilidad de que no sobrevivamos para aprender de esos errores. La tecnología del siglo XXI es mucho más poderosa. Si cometemos el mismo tipo de errores con la tecnología actual, existe una alta probabilidad de que no sobrevivamos para aprender de esos errores. La tecnología del siglo XXI es mucho más poderosa. Si cometemos el mismo tipo de errores con la tecnología actual, existe una alta probabilidad de que no sobrevivamos para aprender de esos errores.

Yann LeCun: Lo mismo podría decirse de todas las revoluciones tecnológicas de la historia. La imprenta destruyó la sociedad en Europa a principios del siglo XVI con divisiones religiosas, pero también trajo la Ilustración, el racionalismo, la ciencia, la filosofía y la democracia.

Yuval Noah Harari: La imprenta alimentó la Ilustración, pero también el imperialismo europeo y las guerras de religión. Sin embargo, no fue lo suficientemente poderoso como para destruir totalmente a la humanidad. La IA es lo suficientemente poderosa. Si hay otra ronda de guerras religiosas, como entre protestantes y católicos en la Francia del siglo XVI, pero con IA y bombas nucleares, no creo que la humanidad sobreviva. El peligro es que la IA pueda destruir los cimientos de la democracia y conducir a la creación de nuevas dictaduras digitales que serán incluso más extremas que la Unión Soviética.

image.png

Con deep fakes, ¿está en peligro la democracia? ¿Y eso justifica un descanso?

Yann LeCun: La amplificación de la inteligencia humana por la máquina permitirá un nuevo renacimiento o una nueva era de iluminación, impulsada por una aceleración del progreso científico, técnico, médico y social gracias a la IA. No creo que una desaceleración o una pausa en la investigación sea útil porque no creo que eso detenga ningún peligro.. Para detener un peligro, tendrías que hacer algunas suposiciones que son simplemente falsas. Es esta idea de que en el momento en que enciendas el sistema de súper inteligencia, se apoderará del mundo. Eso es ridículo. Para implementar sistemas de IA a gran escala en el mundo abierto, debe tener mucho cuidado al respecto. Debe hacerlo lentamente y bajo el escrutinio de los gobiernos y el público. Creo que la caída de las sociedades que ha venido ocurriendo en las últimas décadas se debe en parte a que los gobiernos reaccionan lentamente. Hace varios años, Facebook llegó a pedir a varios gobiernos de democracias liberales en todo el mundo: “Define para nosotros qué es contenido aceptable en las redes sociales” porque no creemos que tengamos la legitimidad para decidir por la sociedad qué constituye contenido aceptable. ¿Deberíamos eliminar la propaganda neonazi y deberíamos eliminar la negación del Holocausto, por ejemplo, lo que deberíamos hacer en Europa porque es ilegal? Y la respuesta fue grillos. La administración Trump dijo "tenemos la Primera Enmienda aquí, así que estás solo". El único gobierno del mundo que respondió fue en realidad el gobierno francés de Macron, que se sentó y discutió el tema. No surgió ninguna ley, pero hubo discusiones sobre cuál es la forma correcta de definir qué constituye contenido apropiado, y es algo muy difícil de hacer porque tienes que decidir las compensaciones correctas entre la libertad de expresión y la preservación de la democracia. Creo que son los sistemas democráticos los que tienen que decidir. La administración Trump dijo "tenemos la Primera Enmienda aquí, así que estás solo". El único gobierno del mundo que respondió fue en realidad el gobierno francés de Macron, que se sentó y discutió el tema. No surgió ninguna ley, pero hubo discusiones sobre cuál es la forma correcta de definir qué constituye contenido apropiado, y es algo muy difícil de hacer porque tienes que decidir las compensaciones correctas entre la libertad de expresión y la preservación de la democracia. Creo que son los sistemas democráticos los que tienen que decidir. La administración Trump dijo "tenemos la Primera Enmienda aquí, así que estás solo". El único gobierno del mundo que respondió fue en realidad el gobierno francés de Macron, que se sentó y discutió el tema. No surgió ninguna ley, pero hubo discusiones sobre cuál es la forma correcta de definir qué constituye contenido apropiado, y es algo muy difícil de hacer porque tienes que decidir las compensaciones correctas entre la libertad de expresión y la preservación de la democracia. Creo que son los sistemas democráticos los que tienen que decidir. Es la forma correcta de definir qué constituye contenido apropiado, y es algo muy difícil de hacer porque tienes que decidir las compensaciones correctas entre la libertad de expresión y la preservación de la democracia. Creo que son los sistemas democráticos los que tienen que decidir. Es la forma correcta de definir qué constituye contenido apropiado, y es algo muy difícil de hacer porque tienes que decidir las compensaciones correctas entre la libertad de expresión y la preservación de la democracia. Creo que son los sistemas democráticos los que tienen que decidir.

Yuval Noah Harari: Lo que acabas de describir muestra que la sociedad necesita tiempo. Los gobiernos democráticos no respondieron a su solicitud, porque no entendieron su importancia y el impacto de las redes sociales. Ahora que lo entienden, la reacción es diferente. Es normal que las sociedades humanas, especialmente las democracias, tarden décadas en comprender los cambios y tomar una decisión. Por eso necesitamos más tiempo. Ahora lanzamos estas nuevas herramientas de IA y la sociedad tardará años en comprender su impacto en la política, la psicología, la economía... Necesitamos reducir la velocidad para que la sociedad pueda identificar los peligros y decidir qué hacer al respecto.

Y con nuevas herramientas como Midjourney o creación de nuevas imágenes que parecen muy reales , y Runway, este software que puede ayudarte a crear nuevos videos que parecen reales, ¿es esta una nueva definición de la verdad? ¿Será cada vez más difícil saberlo?

Yuval Noah Harari: Incluso antes de la actual revolución de la IA, ya teníamos este problema. La conversación democrática se está derrumbando porque la gente, incluso los partidos principales, ya no pueden llegar a un consenso. Creo que hay una paradoja hoy en día en las democracias occidentales. Países como Estados Unidos cuentan con la tecnología de la información más poderosa de la historia, sin embargo, los estadounidenses no logran ponerse de acuerdo sobre quién ganó las últimas elecciones en 2020, o si las vacunas nos ayudan o nos ponen en peligro, algunos incluso cuestionan si el cambio climático es real. ¿Cómo es que una sociedad con una tecnología de la información tan poderosa parece incapaz de ponerse de acuerdo en los asuntos más básicos?

Yann LeCun: La pregunta es si se trata de un fenómeno nuevo o si el hecho de que ahora tengamos tecnología de comunicación lo hace más obvio. Algunos de mis colegas de la Universidad de Nueva York hace años hicieron un estudio sobre quién hace clic en clickbaits que parecen repugnantes. La respuesta fue en su mayoría personas que tenían 65 años. Si eres un poco mayor, quizás tengas más dificultades para seguir la evolución del mundo moderno y te puede engañar. Pero la generación más joven no lo es, la generación que creció con Internet toma todo con un gran grano de sal y tiene una forma más sistemática de rastrear el origen de una pieza de información. Muchas de las predicciones que se hacen ignoran el hecho de que las personas adaptan su forma de pensar.

Algunos investigadores ven el surgimiento de la IA como un gran peligro para la humanidad. ¿Ya estamos perdiendo el control?

Yuval Noah Harari: Por ahora, todavía tenemos el control, pero es posible que no lo tengamos en un futuro muy cercano. Desde una perspectiva histórica, la IA es la primera herramienta en la historia que puede tomar decisiones por sí misma. Mucha gente lo compara con revoluciones anteriores, como la energía nuclear. Pero no es una bomba atómica. La bomba atómica no podía tomar decisiones sobre cómo usar la bomba atómica. La IA puede tomar decisiones sobre cómo usar la IA. Lo ha estado haciendo, con Facebook por ejemplo: son cada vez más los algoritmos los que deciden qué contenido mostrar a las personas y existe este famoso problema de alineación que le das a la IA el objetivo de maximizar el tráfico en la plataforma y obtienes el resultado no deseado de maximizar el odio dentro de la sociedad porque la IA descubrió por sí misma que el odio aumenta el compromiso. No No creo que las redes sociales o sus administradores le hayan dado instrucciones intencionalmente para aumentar el odio, pero AI descubrió que la forma de aumentar la participación de los usuarios es promocionando contenido que difunde el odio, la ira y las teorías de la conspiración. Y esto tiene un impacto enorme, que no se revierte fácilmente aunque ahora cambiemos los algoritmos. Trump fue elegido en parte debido a estos algoritmos, y no se podía deselegir ni a él ni a todos los cambios que hizo en la sociedad estadounidense y en el mundo. Entonces, la pregunta es: ¿qué posibilidades tienes de revertir algo después de que haya cometido un error importante? Y ahora existe otro peligro: anteriormente, los algoritmos de las redes sociales solo difundían contenido producido por humanos. Ahora, la IA también puede producir el contenido por sí misma, y esa es la primera entidad que podría crear nuevas ideas. Las imprentas no podían escribir libros, las radios no podían escribir música, la IA sí puede. Así que estamos lidiando con un fenómeno completamente nuevo, muy poderoso en la historia humana que puede quitarnos el poder.

Yann Le Cun: En primer lugar, Facebook o la red social que describiste habría sido precisa alrededor de 2015. Esto no es lo que está sucediendo hoy. Entonces, de hecho, cuando implementas algo, mides el efecto, y si los efectos son malos, corriges. Entonces, el compromiso era algo lógico para maximizar, y las personas que usaban Facebook no estaban contentas con el resultado, por lo que el algoritmo de clasificación cambió por completo. Hay un importante rediseño completo de los algoritmos de alimentación para hacer cosas como evitar burbujas de información para no crear modelos económicos para clickbaits, por ejemplo. Lo que es interesante en el contexto de las redes sociales y los sistemas informáticos de hoy es que la IA en realidad no es un problema, es la solución. Entonces, si desea un sistema que elimine con precisión su discurso e intente acciones correctivas y cosas por el estilo en las redes sociales,

Entonces, ¿podríamos necesitar la misma regulación para la IA que tenemos para la energía nuclear?

Yann LeCun: Actualmente, los sistemas de IA requieren enormes recursos para poder crearse, pero al final pueden ser utilizados por cualquiera. Así que no va a ser como las armas nucleares. Además, la gran diferencia es que la IA está diseñada para hacer que las personas sean más inteligentes o para aumentar la inteligencia humana, mientras que las armas nucleares están diseñadas para matar personas.

Yuval Noah Harari: Esa es una buena pregunta sobre la IA: ¿Diseñamos IA para hacer que las personas sean más inteligentes o diseñamos IA para controlar a las personas? Esto depende del país.

Yann LeCun: Algunos países probablemente lo están diseñando para controlar a las personas. Pero esos países inevitablemente se quedarán atrás en términos de tecnología como lo hizo el Imperio Otomano en el siglo XVII al prohibir el uso de la imprenta. En la Edad Media, el mundo musulmán dominaba la ciencia. En el siglo XVII, estaban muy atrasados y luego se rezagaron aún más. Algo así puede ocurrir en China, que se está aislando del ecosistema de la IA . Y si no logran que su gente tenga acceso a una inteligencia artificial más poderosa porque les preocupa controlar la inmigración, también se quedarán atrás.

Yuval Noah Harari: Espero que tengas razón, pero creo que es una ilusión. Los nazis estaban mucho más avanzados que Occidente en, por ejemplo, cohetes y aviones a reacción. En 1940, Alemania derrotó a Francia de manera muy decisiva, a pesar de que el equilibrio de poder económico favorecía la alianza franco-británica. Así que no me apresuraría a apostar a que las democracias siempre prevalecerán. Tenemos que tener en cuenta los peores escenarios posibles.

image.png

La IA puede ayudarnos a crear nuevos materiales, medicamentos y crear puestos de trabajo, pero también tiene el potencial de destruir puestos de trabajo . Un estudio de la Universidad de Pensilvania dijo que los trabajos que podrían ser vulnerables probablemente serían matemáticos o contadores, en lugar de cocineros o bailarines. Es la primera vez que los trabajos administrativos corren más riesgo que otras profesiones. ¿Lo ves como una fuerza potencialmente más destructiva que creativa?

Yann Le Cun: Economistas como Erik Brynjolfsson de Stanford dicen que las nuevas tecnologías desplazan puestos de trabajo, pero también hacen que las personas sean más productivas, aunque se necesitan entre 15 y 20 años para que las personas sean más productivas de forma cuantificable. La tecnología desplaza puestos de trabajo, pero la creamos para que las personas sean más productivas. La cantidad de riqueza producida por hora trabajada aumenta en total. Y la razón por la que lleva tanto tiempo es que la velocidad a la que la tecnología impacta en la economía está limitada por la rapidez con la que las personas pueden aprender a usarla. Y así, el desplazamiento de puestos de trabajo también está limitado por la velocidad a la que las personas pueden aprender a utilizar la nueva tecnología. Así que va a tomar 10 o 15 años. Habrá algunos cambios importantes en ciertas áreas de la economía. Algunas personas van a tener que volver a entrenar. Allá' Tendrá que haber planes sociales en países que sepan cómo hacer esto, lo que no incluye a EE. UU. pero incluye a Europa occidental. No hay duda de que va a haber alguna interrupción. Pero al final, la gente ganará más dinero por una determinada cantidad de trabajo o trabajará menos por la misma cantidad de dinero.

Entonces, ¿usted ve que todos tendrán un trabajo y que no aumentará la desigualdad dentro de veinte años?

Yann LeCun: Se van a crear nuevos puestos de trabajo, los viejos puestos de trabajo van a desaparecer de la misma manera que lo hizo la industrialización con la proporción de personas que trabajan en la producción de alimentos del 60% al 2%. Aparecerán nuevas profesiones que reemplazarán a las antiguas. ¿Quién hubiera pensado hace 20 años que podría vivir bastante bien produciendo videos de YouTube, aplicaciones móviles o siendo diseñador de sitios web? Y luego está la cuestión de cómo se distribuye esta riqueza entre las personas. Esa es una cuestión política, depende de a quién decidas elegir.

Yuval Noah Harari: Desaparecerán los antiguos puestos de trabajo y se crearán nuevos puestos de trabajo. Pero me preocupa el proceso de transición. En la historia, las transiciones son peligrosas. Incluso si a la larga habrá suficientes puestos de trabajo para todos, en los períodos de transición, muchas personas pueden sufrir mucho en el ínterin. Volviendo al ejemplo habitual de Alemania, después de la crisis de 1929 hubo solo 4 años de alto desempleo en Alemania, y tenemos a Hitler. Así que el tiempo es crucial. Y el otro elemento es el espacio. Los países desarrollados que lideren la revolución de la IA se beneficiarán enormemente y podrán amortiguar y reciclar a su fuerza laboral. La gran pregunta es ¿qué sucede en el resto del mundo? Entonces, si tuviera un país como Bangladesh, que depende abrumadoramente de la industria textil, ¿qué sucede cuando ¿Es más barato producir camisetas automáticamente en Europa que en Bangladesh? ¿De dónde sacaría el dinero para volver a capacitar a millones de trabajadores textiles de Bangladesh de 50 años para que ahora sean ingenieros de IA? Entonces, aunque no creo que la IA cree una falta absoluta de empleos, me temo que la interrupción sería extremadamente peligrosa desde el punto de vista político. No es imposible solucionarlo. Podría gravar a las corporaciones de alta tecnología en los Estados Unidos y usar el dinero para volver a capacitar a los trabajadores textiles de Bangladesh, pero no veo a ninguna administración estadounidense haciendo algo así... Me temo que la interrupción sería políticamente extremadamente peligrosa. No es imposible solucionarlo. Podría gravar a las corporaciones de alta tecnología en los Estados Unidos y usar el dinero para volver a capacitar a los trabajadores textiles de Bangladesh, pero no veo a ninguna administración estadounidense haciendo algo así... Me temo que la interrupción sería políticamente extremadamente peligrosa. No es imposible solucionarlo. Podría gravar a las corporaciones de alta tecnología en los Estados Unidos y usar el dinero para volver a capacitar a los trabajadores textiles de Bangladesh, pero no veo a ninguna administración estadounidense haciendo algo así...

Yann LeCun: Es un gran problema, pero no creo que sea un gran problema que viene con la IA. Los efectos del progreso tecnológico en el pasado ha tenido más o menos el mismo efecto.

Yuval Noah Harari: La IA es diferente, porque puede acabar con la necesidad de mano de obra barata, que ha sido el principal activo económico de muchos países en desarrollo.

¿Crees que la IA puede ayudar a los humanos a alcanzar la inmortalidad (o, por el contrario, acortar la vida humana)? ¿Qué opinas de la propuesta de Elon Musk de implantar chips en el cerebro de los humanos para permitirnos ser tan fuertes como la IA?

Yuval Noah Harari: La pregunta es: ¿Qué pensamos sobre la capacidad de mejorar a los humanos? Creo que será muy peligroso usar IA o interfaces cerebro-computadora para "mejorar" a los humanos y brindarnos vidas más largas o recuerdos más fuertes. Los humanos siempre hemos sufrido una gran brecha entre nuestro poder para manipular sistemas y la sabiduría necesaria para comprender estos sistemas en profundidad. Desafortunadamente, es mucho más fácil de manipular que de entender. Es más fácil construir una represa sobre un río que entender el impacto que tendrá en el ecosistema. Por lo tanto, los humanos comenzamos a manipular las cosas mucho antes de comprender las consecuencias de nuestras acciones. En el pasado, los humanos hemos aprendido a manipular el mundo exterior. Aprendimos a controlar los ríos, los animales, los bosques. Pero debido a que no entendíamos la complejidad del sistema ecológico, abusamos de nuestro poder. Desequilibramos el sistema ecológico y ahora nos enfrentamos al colapso ecológico. En el siglo XXI, podríamos aprender a manipular no solo el mundo exterior, sino también el mundo interior. La IA y otras tecnologías como la ingeniería genética podrían permitirnos rediseñar nuestros cuerpos y mentes y manipular nuestras emociones, pensamientos y sensaciones. Pero debido a que no entendemos la complejidad de nuestro sistema mental interno, podemos hacer un mal uso de ese poder. Podríamos desequilibrar nuestros cuerpos y mentes, y podríamos enfrentar un colapso humano interno paralelo a la crisis ecológica externa. En particular, es probable que los gobiernos, las corporaciones y los ejércitos usen nuevas tecnologías para mejorar las habilidades que necesitan, como inteligencia y disciplina, mientras que tienen mucho menos interés en desarrollar otras habilidades, como compasión, sensibilidad artística o espiritualidad. El resultado podría ser humanos muy inteligentes y disciplinados que carecen de compasión, carecen de sensibilidad artística y carecen de profundidad espiritual. Podríamos perder así gran parte de nuestro potencial humano sin ni siquiera darnos cuenta de que lo tenemos. De hecho, no tenemos idea de cuál es el potencial humano completo, porque sabemos muy poco sobre la mente humana. Y, sin embargo, apenas invertimos mucho en explorar la mente humana y, en cambio, nos enfocamos en aumentar el poder de los algoritmos. Espero que por cada dólar y cada minuto que gastemos en desarrollar IA, gastemos otro dólar y minuto en explorar y desarrollar nuestra propia mente. Podríamos perder así gran parte de nuestro potencial humano sin ni siquiera darnos cuenta de que lo tenemos. De hecho, no tenemos idea de cuál es el potencial humano completo, porque sabemos muy poco sobre la mente humana. Y, sin embargo, apenas invertimos mucho en explorar la mente humana y, en cambio, nos enfocamos en aumentar el poder de los algoritmos. Espero que por cada dólar y cada minuto que gastemos en desarrollar IA, gastemos otro dólar y minuto en explorar y desarrollar nuestra propia mente. Podríamos perder así gran parte de nuestro potencial humano sin ni siquiera darnos cuenta de que lo tenemos. De hecho, no tenemos idea de cuál es el potencial humano completo, porque sabemos muy poco sobre la mente humana. Y, sin embargo, apenas invertimos mucho en explorar la mente humana y, en cambio, nos enfocamos en aumentar el poder de los algoritmos. Espero que por cada dólar y cada minuto que gastemos en desarrollar IA, gastemos otro dólar y minuto en explorar y desarrollar nuestra propia mente.

image.png

Yann Le Cun: Es seguro que la IA acelerará el progreso de la medicina, ya lo estamos viendo en la imagen médica. La IA nos ayuda a comprender los mecanismos bioquímicos de la vida, por ejemplo, prediciendo la conformación de las proteínas y sus interacciones con otras proteínas. No creo en el escenario de ciencia ficción favorito donde la IA dominaría y eliminaría a la humanidad. Las IA del futuro pueden ser más inteligentes que nosotros, pero nos servirán y no tienen ningún deseo de dominar a la humanidad. En cuanto a los implantes cerebrales, la investigación se ha llevado a cabo durante muchos años. Son muy útiles en el tratamiento de ciertos trastornos de la vista y del oído, y muy prometedores para ciertas parálisis. En el futuro, podemos imaginar el tratamiento de los defectos de memoria mediante la adición de un hipocampo artificial. Pero dudo que muchas personas acepten implantarse para interactuar con un asistente virtual.

¿Qué debemos enseñar a nuestros hijos para ayudarlos a sobrevivir y prosperar en este nuevo mundo?

Yann LeCun: El conocimiento tiene una larga vida útil. Creo que es mejor aprender profesiones creativas que sean artísticas o científicas y que requieran habilidades profundas. Y todo lo que tenga que ver con la experiencia y la comunicación humana intrínseca, porque no es reemplazable por máquinas. Imagina que eres un buen improvisador de jazz, estás comunicando un estado de ánimo. Podemos hacer improvisaciones de jazz mecánicas o electrónicas , pero ¿qué comunican? Es lo mismo con el arte: puedes hacer arte atractivo, pero ¿qué comunicas? Esas herramientas van a amplificar la creatividad humana, pero no van a hacer que la creatividad humana quede obsoleta. Simplemente hará que sea más fácil para un número más amplio de personas ser creativas y ejercitar sus jugos creativos.

Yuval Noah Harari: Es peligroso apostar en una habilidad específica. Lo mejor es centrarse en aprender a aprender y también las herramientas psicológicas necesarias para seguir cambiando a lo largo de su vida. El mayor problema será psicológico: cómo sigues cambiando, cómo sigues reinventándote, a medida que el mercado laboral se vuelve cada vez más volátil. Entra la IA, tal vez haya una nueva profesión, pero la nueva profesión también desaparece o cambia drásticamente dentro de diez o 20 años. Y hay que reinventarse de nuevo. Entonces, debemos enseñar a las personas cómo aprender y también ayudarlos a construir un tipo de personalidad que sea capaz de aceptar el cambio porque el cambio será la única constante en el siglo XXI. Buena suerte Yann con lo que haces, creo que el futuro de la democracia depende en gran medida de ti y de otras personas en la industria. Así que por favor haga un buen trabajo responsable.

Yann LeCun: Este siempre ha sido mi principio rector.

Aparecen en esta nota:

Contacto

Registro ISSN - Propiedad Intelectual: Nº: RL-2021-110619619-APN-DNDA#MJ - Domicilio Legal: Intendente Beguiristain 146 - Sarandí (1872) - Buenos Aires - Argentina Teléfono/Fax: (+5411) 4204-3161/9513 - internet@dpopular.com.ar

Edición Nro. 15739

 

Dirección

Propietario: Man Press S.A. - Director: Francisco Nicolás Fascetto © 2017 Copyright Diario Popular - Todos los derechos reservados