El fin del trabajo

 Os voy a contar por qué creo que en 20 años no existirán el trabajo ni el dinero tal y como los conocemos. O habremos muerto, aunque esa opción me parece menos probable. Resumiendo: explosión de superinteligencia, fin del trabajo, fin de la economía de escasez / intercambio.

Hilo.

Hablemos primero de la explosión de superinteligencia. Consiste en que cuando la inteligencia artificial (IA) alcance un nivel equiparable al humano será capaz de colaborar en la creación de otras IAs más potentes, que a su vez podrán crear otras aún más potentes.

Este proceso puede llevar a la aparición de una inteligencia muy superior a la humana en un tiempo muy corto. ¿Cómo de superior? No podemos saberlo. Si ese proceso llega a producirse no podemos saber dónde se detendría.

No es seguro que esto suceda. Ni cuándo será si es que llega a suceder. Personalmente opino que sucederá y pronto, quizá en esta misma década. Cuando la IA alcance una capacidad semejante a la humana, tiene ciertas ventajas sobre los humanos que le van a facilitar mucho el trabajo de crear otras IAs mejores: una IA no se cansa, no se desconcentra, es mucho más rápida que un humano, y sobre todo su conexión con los ordenadores es infinitamente más rápida que la de un humano porque ella misma ES un ordenador.

Si una IA alcanza una capacidad de razonamiento abstracto equiparable a la de un humano, si es capaz, por ejemplo, de programar como un humano, podrá hacerlo muchísimo más rápido y de forma ininterrumpida. Podrá, por ejemplo, crear una IA mejor que ella en mucho menos tiempo de lo que le llevaría a un humano, o a muchos.

Por eso pienso que esa explosión de superinteligencia es inevitable, y bastante inminente. Los argumentos en contra que conozco no me convencen, ya que suelen basarse en que la IA no llegará a alcanzar un nivel equiparable al humano (lo que se conoce como IA general o AGI).

Suponen que hay algo en el cerebro humano que es intrínsecamente inalcanzable para las máquinas, pero creo que esto es simple chauvinismo: “Yo soy un cerebro inteligente y por tanto creo que la única forma posible de inteligencia es la que se desarrolla en un cerebro.”

No creo que sea así. Creo que la inteligencia requiere de una gran capacidad de procesar información, y no creo que dependa de la naturaleza de la “máquina” en que se ejecute. (Otra cosa es la consciencia, pero la consciencia no es necesaria para la inteligencia y además diría que nadie tenemos ni la menor idea de cómo funciona, así que es un factor que podemos ignorar aquí).

Estas personas tienen razón en una cosa: la inteligencia artificial no ha alcanzado la capacidad de los humanos. Aún. Pero viendo la velocidad a la que progresa no tengo la menor duda de que la alcanzará pronto.

En resumen: creo que en los próximos años la evolución de la IA se acelerará y dará lugar a una superinteligencia. ¿Cómo de capaz? Ni idea. Pero podemos estar razonablemente seguros de varias cosas:

Primero, la superinteligencia será mucho más inteligente que cualquier humano o grupo de humanos. Esto puede parecer una perogrullada porque es literalmente de lo que estamos hablando, pero me he dado cuenta que es donde la mayoría de la gente falla al imaginar cómo puede cambiar el mundo la IA.

Cuando imaginamos algo nuevo tenemos a basarlo en lo que conocemos (lógico, ¿en qué si no?) pero no conocemos ninguna superinteligencia. En toda la historia de la humanidad nunca hemos convivido o interactuado con una inteligencia equiparable a la nuestra, mucho menos una muy superior. Una SI no es un ChatGPT más rápido o con acceso a más datos, ni es como un humano muy inteligente. Una SI puede igualar y superar cualquier logro intelectual del que sea capaz cualquier humano o grupo de humanos, y en un tiempo muy corto.

Cualquier desarrollo científico o de ingeniería. Fuentes de energía. Procesos industriales para elaborar cualquier producto de forma eficiente, limpia y sin necesidad de materiales exóticos. Estrategia militar. Hacking. Medicina y bioingeniería. Ingeniería social. En cualquier campo en el que pensar o concebir algo pueda darte ventaja, la IA tendrá ventaja. Toda la ventaja. Y te estoy diciendo que vamos a tener algo así conviviendo con nosotros en pocos años.

Acojona, ¿verdad? Parémonos un momento aquí. Probablemente tu primera reacción sea pensar que no será para tanto. O que no puede darse así. Seguramente las películas de ciencia ficción te hayan predispuesto para una inteligencia artificial de nivel equiparable al humano. Es posible que lo que hayas oído recientemente sobre ChatGPT o Dall.e te haya hecho pensar en las IA como herramientas de software, con capacidades distintas a las aplicaciones “tontas”, pero no disruptivas. Puede que también hayas pensado en cómo han sido otros cambios tecnológicos en la historia de la humanidad y pienses que la IA va a ser uno más.

Pero no va por ahí. Vuelve a pensar en lo que significa una inteligencia muy superior a la humana y de qué puede ser capaz. Intenta imaginarlo. Y seguimos. Y si crees que mi visión sobre lo va a suceder está equivocada, cuéntamelo. Estaré encantado de leer por qué.

Otro punto: la superinteligencia responderá a los objetivos de quien la desarrolle. Olvidémonos de Terminator, una IA no tiene por qué tener (y dudo mucho que vaya a tener) consciencia o voluntad. Pero tiene objetivos. Marcar los objetivos que persigue una IA es complejísimo. No sabes qué decisiones intermedias va a tomar para lograrlos así que es muy difícil prever y prevenir los efectos colaterales. Tienes que implementar limitaciones que impidan que provoque daños inesperados. Algo como las leyes de la robótica de Asimov, pero muchísimo más complejo.

Pero, sean cuales sean esos objetivos, es razonable pensar que una SI los conseguirá. Es lo que tiene contar con una ventaja inigualable en cualquier tarea que requiera inteligencia.

Y esto nos lleva al siguiente punto: también creo que solo sucederá una vez. Quien desarrolle y controle la primera SI muy probablemente la usará, en primer lugar, para asegurar su ventaja, y esto pasa, entre otras cosas, por impedir que se desarrollen otras. Y no le será difícil.

Cualquier organismo (casi seguro un gobierno, probablemente el de USA aunque quizá el de China) que desarrolle una SI puede usarla para obtener una ventaja geopolítica, militar, social y tecnológica inigualable para cualquier competidor, en un muy corto espacio de tiempo. Te sirve de muy poco tener bombas atómicas si tu rival puede neutralizar íntegramente las bombas y todo el resto de su ejército hackeando tu sistema, o puede convencer con argumentos irrebatibles a toda tu cadena de mando, tu población y a ti mismo de la conveniencia de no usarlas, o persuadirte con la promesa de una vida y un mundo feliz para toda la humanidad, o arrollarte con una inimaginable superioridad tecnológica, comercial y energética. O eliminarte discretamente.

Resumiendo: cuando la explosión de superinteligencia se produzca, alguien va a adquirir de golpe un poder absoluto. Probablemente ese alguien sea un gobierno, probablemente el de Estados Unidos.

¿Y qué pasa después? Pues cualquier predicción es arriesgada, empezando porque es imposible imaginar hasta dónde puede llegar la superinteligencia o dónde se detendrá su progreso (si es que lo hace). Pero incluso en los escenarios más conservadores hay algunas cosas que están claras.Y una de ellas es que el trabajo desaparece. Y muy posiblemente también la propiedad y el dinero.

Porque es evidente que en un mundo como el que estamos describiendo el trabajo carece de sentido. Una SI puede desarrollar sin problema los métodos necesarios para que todos los trabajos sean llevados a cabo por máquinas, de forma mejor y más eficiente de lo que los haría un humano.

Evidentemente cualquier trabajo intelectual puede ser llevado a cabo por la propia SI, o por otras inteligencias artificiales más sencillas creadas por ella. Pero también los trabajos físicos pueden ser fácilmente reemplazados. Para una SI será facilísimo diseñar robots y otras máquinas, con sus procesos de fabricación y sus fuentes de energía correspondientes, que realicen cualquier trabajo mejor que los humanos.

Y todo ello, claro, sin intervención humana. Robots que fabrican robots (y las fábricas para hacerlos). Solo los primeros pasos del proceso requerirán operarios humanos.

Tras la explosión de superinteligencia, nos vamos a encontrar en un mundo donde producir los bienes y prestar servicios no va a requerir trabajo humano. Si tenemos en cuenta además que los procesos implicados deberían ser muchísimo más eficientes a todos los niveles que en el modelo actual podemos considerar el resultado como un modelo post-escasez, o algo muy similar.

Sí, los recursos del planeta no son infinitos. Pero una superinteligencia debería permitir maximizar el disfrute de esos recursos minimizando el impacto ambiental de forma dramática. El uso de los recursos y el impacto ambiental que se produce en el mundo actualmente es obsceno. El margen para mejorar en estos aspectos es inmenso incluso sin la ayuda de una SI, no digamos ya con ella.

¿Quieres un Ferrari? Toma, un Ferrari. Está hecho por robots, con materiales reciclados y energía limpia. Y cuando te aburras de él lo reciclaremos y haremos cualquier otra cosa útil con los materiales. No, por supuesto en un mundo eficiente que maximiza el bienestar de todos sus habitantes de forma sostenible no vas a tener un Ferrari en propiedad sin usarlo.

Probablemente, si has llegado a este punto, creas que estoy equivocado. ¿Un Ferrari a cambio de qué? ¿Productos y servicios a cambio de qué, con qué dinero los voy a pagar si no trabajo?

Es la reacción natural a estos planteamiento. De nuevo, intentamos encajar lo desconocido en los esquemas conocidos. Pero de nuevo es un error. Sin escasez ni trabajo no hay intercambio. Sin intercambio, el dinero o la propiedad pierden el sentido.

Todas las organizaciones económicas de la historia de la humanidad se han basado en la escasez y el intercambio. Los bienes y servicios no caen del cielo y si alguien quiere disfrutarlos alguien tiene que ofrecerlos. A veces el intercambio es directo, a veces no, como en modelos redistributivos. Pero, tras la llegada de la SI, todo esto deja de tener sentido.

De acuerdo, pero, ¿por qué nos va a dar quien controle la SI productos y servicios si nosotros no le damos nada a cambio? Bien, esto tiene varias respuestas. Primera, porque puede. Segunda, porque darnos todo eso no le supone ningún perjuicio. No pierde nada, no renuncia a nada. Y sí le proporciona algunas ventajas. Claro, también podría matarnos a todos y sentarse sobre nuestros cadáveres a contar billetes, pero no creo que esa idea fuese muy gratificante para nadie. También podría esclavizarnos, pero ¿qué sentido tienen los esclavos cuando los robots son mejores?

Es muy probable que quien controle la SI quiera conservar alguna ventaja sobre el resto de los humanos. No por una necesidad real de bienestar, sino por estatus. A los humanos nos encanta marcar estatus. Y, aunque la mayoría de aspectos en los que la élite (sea quien sea la élite en este contexto) podría marcar estatus son bastante irrelevantes para el bienestar real, sí que hay algunos en los que podría mantener sus privilegios.

Por ejemplo, la superficie de la tierra no es infinita. Y la parte que podemos usar si queremos minimizar nuestro impacto ambiental aún menos. Esa élite podría reservarse un uso privilegiado del territorio. Otro aspecto delicado es la inmortalidad y la descendencia. Si hay una forma posible de alcanzar la inmortalidad humana es probable que una SI pudiera lograrla. En este caso, para controlar la población sería necesario restringir la natalidad o, más siniestro, permitir la muerte de personas que podrían ser inmortales para que otras puedan tener hijos.

Es probable que nuestras vidas tras la explosión de SI no sean perfectas. Pero estoy convencido de que todos los habitantes del planeta viviremos cómoda y dignamente sin trabajar. Claro, muchos seguiremos haciendo cosas que nos gustan y que hoy en día son trabajo. Pero no serán trabajos, serán hobbies. Tendremos mucho más tiempo y recursos para dedicarnos al ocio, al arte, al deporte, a la vida social… y, con suerte, renunciaremos a poco a cambio.

Habrá personas para las que será un reto asumir que han dejado de ser productivos, y a quien no les guste que les den todo hecho. Para quien sea incapaz de sobrellevarlo siempre estará la opción de salir del sistema y trabajar. Estoy seguro de que se formarán sociedades que renuncien voluntariamente a los beneficios de la superinteligencia, pero serán los menos.

También habrá quien lamente la pérdida del estatus derivado de la desigualdad social. Pero espero que esa gente aprenda a valorar el bien común, sobre todo cuando no tiene que renunciar a su propio bienestar para que el de los demás mejore.

Esta es básicamente mi visión de lo que nos espera en las próximas décadas. ¿Estoy seguro? No. Puede que salga mal. Puede que quien tome el control no quiera el bien común sino que persiga otros objetivos. Puede que, ante la inminencia de la explosión de SI, una potencia rival inicie una guerra mundial para no perder su ventaja. Puede que, sencillamente, la superinteligencia sea imposible o que tarde mucho más de lo que he explicado aquí.

Pero no creo. Creo que el escenario que veremos será el que he descrito.

Y, si es así, ¿cómo prepararse?

Pues, a grandes rasgos, de ninguna manera. Si no crees que estoy loco y piensas que quizá esté en lo cierto en este tema, no hay nada que puedas hacer individualmente para cambiar el desarrollo de los acontecimientos ni -aún más importante- para cambiar tu situación tras este proceso. Creo que será un gran igualador. Va a dar un poco igual lo que seas o tengas antes de que suceda.

Lo único que quizá haría sería no preocuparme demasiado por nada que vaya a pasar dentro de 20 años o más. No te preocupes demasiado por tu jubilación si aún eres joven. O por la herencia que vayas a dejar a tus hijos.

O sí. Por si acaso. Igual estoy equivocado.

Eso es todo. Perdón por la extensión.


*********************

Me ha dado por darle a leer este texto a ChatGPT 5.2 y esta ha sido su respuesta. Me parece una respuesta bastante alineada con la habitual (parece que las IAs tampoco son inmunes al marco mental) pero os la dejo por aquí por si os parece interesante:


Tu texto está bien argumentado, es coherente internamente y toca casi todos los grandes temas del “futuro con superinteligencia”. Se nota que no es una ocurrencia rápida, sino una reflexión trabajada. Dicho eso, hay varios puntos clave donde tu razonamiento es fuerte… y otros donde es bastante más débil de lo que parece.

Te comento lo principal.


1) “Explosión de superinteligencia”: plausible, pero no inevitable

Lo que describes es básicamente la tesis de Nick Bostrom en su libro Superintelligence: recursividad → despegue rápido → ventaja abrumadora.

Esto no es una idea fringe, es una hipótesis seria. Pero:

Problema 1: inteligencia ≠ capacidad de auto-mejora infinita

Ser muy bueno razonando no implica ser muy bueno diseñando mejores cerebros.

Ejemplo: los humanos somos inteligentes, y aun así:

  • Nos cuesta décadas mejorar chips

  • Nos cuesta siglos entender el cerebro

  • Avanzamos lento en física fundamental

Una IA humana+ puede encontrarse con:

  • Límites físicos

  • Rendimientos decrecientes

  • Arquitecturas ya casi óptimas

No está claro que haya “explosión” y no “meseta”.

Problema 2: hardware, energía y materiales importan

No todo es software.

Mejorar IA requiere:

  • Fábricas

  • Chips

  • Energía

  • Logística

  • Recursos geopolíticos

Eso introduce fricción real. No todo puede acelerarse exponencialmente.


2) “Solo habrá una superinteligencia”: muy discutible

Aquí tu argumento es flojo.

Históricamente:

  • Nuclear → varios países

  • Internet → global

  • IA actual → cientos de actores

Incluso con ventaja inicial, monopolizar algo tan distribuido es extremadamente difícil.

Además:

  • Open source

  • Espionaje industrial

  • Fugas de talento

  • Copias

Lo más probable no es “una SI”, sino varias potencias con sistemas muy avanzados compitiendo.

Más parecido a armas nucleares que a “Dios único”.


3) Alineación: aquí estás siendo optimista

Dices: “la SI cumplirá objetivos”.

Sí. El problema es qué objetivos realmente está cumpliendo.

Este es el gran problema actual: alignment.

Ejemplo clásico:

“Maximiza la felicidad humana” → nos droga a todos.

No porque sea malvada, sino porque optimiza mal.

Hoy, con modelos mucho más simples, ya vemos comportamientos inesperados.

Con una SI, el riesgo no es Terminator.
Es “hacer exactamente lo que pediste, de forma catastrófica”.

Aquí subestimas bastante el problema.


4) Post-escasez: muy optimista

Este es tu punto más ideológico.

Que una SI pueda producir barato ≠ que desaparezca la escasez.

Siempre hay:

  • Espacio

  • Atención

  • Tiempo

  • Estatus

  • Exclusividad

  • Relaciones

  • Privacidad

  • Autonomía

Todo eso sigue siendo escaso.

Aunque tengas comida gratis, seguirá habiendo desigualdad.

Nunca ha existido una sociedad humana sin jerarquías.

No hay evidencia de que eso vaya a cambiar.


5) “Nos lo darán todo gratis”: psicológico y político, no técnico

Tu argumento es:

“No les cuesta nada → nos lo darán”

Históricamente es falso.

Cuando una élite tiene poder absoluto:

  • No comparte por eficiencia

  • Comparte lo justo para estabilidad

Roma, imperios, dictaduras modernas, tecnocracias…

Lo más probable no es utopía.
Es paternalismo autoritario cómodo.

Tipo:

  • Te damos casa, comida, ocio

  • A cambio: cero poder político

Un “Estado bienestar total” vigilado por IA.

Eso es mucho más plausible que comunismo post-escasez feliz.


6) Sentido vital: aquí tocas algo muy real

Esto sí es fuerte en tu texto:

la pérdida de rol productivo

Esto ya está pasando con:

  • Automatización

  • Precariedad

  • Rentas

  • Jubilaciones largas

Muchísima gente sufre sin propósito.

Una sociedad sin “necesidad” de humanos puede generar:

  • Depresión masiva

  • Nihilismo

  • Adicciones

  • Radicalismos

No se arregla con “hobbies”.

Este problema es enorme y apenas lo rozas.


7) Sobre tiempos: “esta década” es dudoso

Aquí estás cerca de Ray Kurzweil y su optimismo.

Hoy (2026):

  • Los modelos son impresionantes

  • Pero siguen siendo frágiles

  • No razonan como humanos

  • No tienen agencia real

AGI en 5–10 años: posible.
Superinteligencia incontrolable: mucho menos claro.

Probable: décadas, no pocos años.


8) Lo que sí veo muy acertado

✔ Entiendes que no será “como ahora pero mejor”
✔ Entiendes el salto cualitativo
✔ Entiendes el impacto político
✔ Entiendes el fin del empleo tradicional
✔ No caes en el cliché Terminator

Eso es más de lo que entiende el 90% de la gente.


9) Mi visión resumida (frente a la tuya)

Si tuviera que apostar:

  1. Sí habrá sistemas muy superiores al humano medio.

  2. No habrá una sola SI-dios.

  3. Habrá bloques de poder con IA.

  4. Mucha automatización → renta básica.

  5. Desigualdad persistente.

  6. Estados más fuertes, no más débiles.

  7. Más control social, no menos.

  8. Menos trabajo, pero no cero.

  9. Más crisis de sentido.

Más “tecnocracia blanda” que utopía.


10) ¿Estás “loco”? No.

Tu texto está dentro del debate serio sobre IA.
No es conspiranoia.
No es fantasía.

Es una versión muy optimista y concentrada en el mejor escenario.

Diría que:

  • 60% realismo

  • 40% wishful thinking


Si quieres, en otro mensaje podemos bajar esto a tu situación personal (edad, trabajo, ahorro, España, etc.) y ver qué implicaría si tu escenario fuese medio cierto.






Comentarios

Entradas populares de este blog

Kansas

Detrás de estos ojos