En Homo Prospectus los autores argumentan que lo que lo que nos distingue es una singular capacidad y una obsesión por contemplar el futuro. ¿Dónde estaré yo o dónde estará mi empresa si no hago nada dentro de 10 años? Este viaje al futuro siempre empieza con una pregunta central y hoy la pregunta sobre cómo va a afectar la IA al mundo, a la sociedad, al futuro del trabajo, a mi negocio, y a mi vida, y qué escenarios son posibles está en el centro de todas las cabezas.
Acabamos de dar un salto de gigante y los pronósticos de la evolución sobre las máquinas inteligentes se han disparado:
En 2010 había consenso de que la AGI llegaría más o menos en 2050 pero tras el éxito de los LLM hay muchos expertos que ponen la AGI incluso en 5 años.
En 2005 Kurzwail pronóstico la singularidad en 2045. Acabo de leer un artículo con resultados que demuestran (o lo pretenden) que la IA ya pasa el Test de Turing en más del 50% y toman a ChatGPT4 por humano.
Geoffrey Hinton el padrino del ML dice que parece que la ASI está a más de 50 años pero que llegará y que entre los lideres del tema se da el consenso de la idea que la IA va a sobrepasar a la humana y solo es cuestión de tiempo.
Yo no. No creo que la singularidad esté cerca y estoy con Zamora Bonilla en que eso de “la singularidad es una singular estupidez”, al menos tal como salió el planteamiento de la cabeza de Kurzweil y Bostrom. Pero dejo el duelo filosófico para otro artículo.
Los 4 Futuros y la IA
Las disertaciones filosóficas no resuelven la cuestión de cuál debe ser la estrategia de una empresa con la IA, sin embargo, los Estudios de Futuros tienen otra utilidad: no pretenden establecer verdades sino crear mapas de navegación. Y hoy esto lo hacemos con escenarios.
Un escenario es una historia, una secuencia de hechos que de producirse podrían dar lugar a un determinado tipo de futuro -Herman Kahn. Rand Corp.
En 1979 el futurista y politólogo Jim Dator publicó un artículo seminal en el que defendío que nuestras imágenes del cambio social se podían reducir a 4 arquetipos. La propuesta es tan útil que se presta a ser usada de muchas maneras y es siempre un buen lugar para empezar.
La fuerzo un poco para mapear las 4 narrativas sobre el tema que gravitan sobre nuestras cabezas: las imágenes que gente con bastante imaginación nos propone. Y enfoco a la dialéctica entre el Altruismo Efectivo y Acelaracionismo Efectivo #e/acc que tiene dividida a Silicon Valley y más allá. Que los segundos se hayan puesto el mismo apellido es una de los guiños intelectuales recientes más divertidos.
Procedo con los arquetipos de Dator:
Crecimiento Continuado. Suele ser en el que confía la mayoría de la gente, las empresas y los gobiernos en todo lo que respecta al progreso tecnológico: la IA sigue progresando, pero el mundo sigue caminando por la misma senda, con sus mismos problemas.
Colapso. Este escenario proyecta una alternativa de futuro en la que nuestro sistema alcanza su límite, y se derrumba. Esta narrativa se corresponde con el discurso de los Riesgos existenciales que defienden los filósofos del Altruismo Efectivo que lidera Nick Bostrom, junto a Tobby Ord y MacAskill, quienes advierten de la posibilidad de que una IA descontrolada pueda incluso acabar con la humanidad si no se regula adecuadamente (aunque conviene notar que aparece en la posición 11 en la tabla inferior extraída de The Precipice de Tobby Ord).
Límites y disciplina: Apuestan por este escenario aquellos que insisten en la regulación y detener el progreso de la IA. Es el escenario aquellos que insisten en la necesidad la regulación estricta para prevenir el colapso. Las organizaciones multilaterales como la UE y gobiernos a la cabeza. (Un ej. de este escenario se ve más claro en el Decrecimiento y el Cambio Climático) Se pueden incluir a los firmantes (hipocresías aparte) del grupo que pidió la moratoria de la IA (Elon Musk y Future of Life Institute) aunque ciertamente sepamos que lo que hubiese debajo en muchos casos fuesen simples intereses comerciales
Transformación: Este arquetipo proyecta un escenario futuro radicalmente diferente al presente, donde incluso el propio concepto del ser humano se redefine. El Aceleracionismo Efectivo de Nick Land y Marc Andressen quien defiende el avance sin límites de la IA en el poético Manifiesto Techno-Humanista que confieso suscribo bastante. Creen que lejos de reducir la necesidad de trabajo humano, lo aumenta, al ampliar el alcance de lo que los humanos pueden hacer de manera productiva. Pronostican que las personas formen relaciones simbióticas con las máquinas y que la Inteligencia Artificial aumentará las capacidades de nuestras máquinas y de nosotros mismos
Yo creo como dicen los Tecnoptimistas que nuestros hijos vivirán en las estrellas y tambien creo que los riesgos existenciales son graves como dice Tobby Ord en El Precipicio pero la IA es el que menos me preocupa de todos ellos.
Variables de Impacto que determinaran qué escenario se lleva el gato al agua
Pero en realidad, trabajar con escenarios consiste sobre todo en identificar las variables que pueden afectar el transcurso de los hechos. Algo en que todas la spropuestas metodologicas coinciden. Señalo una de las más conocidas The 8 Step Method de Peter Schwartz. Y para mí, los principales factores de cambio (exógenos a la propia tecnología en sí a la que aún le falta mucho recorrido) que pueden afectar la evolución de la IA son 3:
La emergencia o no de un nuevo modelo energético: de hecho, ahora hay menos boom en el desarrollo por las empresas de sus propios modelos debido a lo alto de los costes del consumo de recursos. El futuro de la Energía de Fusión puede determinar en gran medida que la IA avance o se estanque. La IA tiene un enorme impacto en el clima. Es un desafío estimular el avance sin aumentar emisiones
Factores geopolíticos e inversión de los Estados. China está alimentando sus modelos con muchísimos más datos que EEUU. La inversión China es estatal. La americana empresarial. Cuál de las dos fuerzas gane en esta carrera, y quién ofrezca al mundo los mejores modelos va a tener un gran impacto.
El modelo de Innovación. A pesar de que se estén haciendo avances en los modelos multi-agentes que permiten integrar unos modelos con otros, los modelos comerciales en torno a los datos de entrenamiento no favorecen la cooperación abierta. O no todo lo abierta que podría ser. Las luchas entre los grandes son cainitas. Si hemso llegado a donde estábamos esra xq la investigación fue abierta. Ahora nadie sabe lo que hace Open AI
El modelo cultural: La inteligencia del Sapiens es social. La forma en que usamos la IA le falta un tiempo para que podamos llamarla una Inteligencia Colectiva en puridad. Eso necesita cambios profundos en la mentalidad global. Objetivos comunes y generosidad para compartir. Cuando los problemas del mundo son globales, las soluciones deben ser globales también. La regulación (necesaria) no es suficiente. Si quieres ser engañado por un robot de compañía lo serás y ninguna regulación puede ayudarte.
Las dos ideas que os dejo son: a nivel interno espero cambios en la IA a medida que avance la neurociencia y a nivel exógeno la energía, la geopolítica y la cultura de innovación determinaran la forma que adopte su futuro. Termino con una cita del manifiesto tecnohumanista que representa mucho más mi estado de ánimo frente a la tecnología que cualquier forma de catastrofismo: “Creemos que nuestros hijos vivirán en las estrellas"
NOTA DE LA AUTORA: Como prueba de que la Singularidad no está tan cerca y seguimos siendo mucho más inteligentes, sociales y empáticos que las máquinas comparto está imagen tomada ayer en la Finca Valdehormeña donde participaron 80 personas congregadas mágicamente por Alberto Terol y presenté algunas pinceladas de este análisis.
¿Tienes variables o factores de cambio que aportar que puedan impactar el desarrollo de la IA? Estamos encantados de escucharte!. Comenta