Contra el Contractivismo: Habilitar y Fomentar Mentes Abiertas en Lugar de Limitar la Comprensión con Etiquetas Obtusas

Una etiqueta peligrosa

Imagina si dijera: “Algunos cristianos niegan la realidad de la evolución biológica, por lo tanto, todos los cristianos niegan la realidad de la evolución biológica”.

O que algunos musulmanes creen que los apóstatas deberían ser condenados a muerte, por lo tanto, todos los musulmanes comparten esa creencia.

O que algunos ateos (como Stalin y Mao, por ejemplo) causaron la muerte de millones de personas, por lo tanto, el ateísmo en sí mismo es una ideología asesina.

O, para acercarnos más a casa (para mí: crecí en Aberdeenshire, Escocia), dado que algunos escoceses son tacaños con el dinero, por lo tanto, todos los escoceses son tacaños con el dinero. (Dentro de Escocia en sí, ese estereotipo desagradable existe con un giro: supuestamente, todos los habitantes de Aberdeen son tacaños con el dinero).

En todos estos casos, dirías que es un etiquetado injustificado. La propagación de tales estereotipos es peligrosa. Obstaculiza un análisis más completo y una apreciación más profunda. Las personas en la vida real son mucho más variadas que eso. Toda comunidad tiene su diversidad.

Estoy igualmente sorprendido por otra instancia de etiquetado. Esto involucra el perezoso concepto de TESCREAL, un concepto que apareció en un artículo reciente aquí en Mindplex Magazine, titulado “TESCREALismo: ¿Se ha ido la clase gobernante del Silicon Valley a “Crazy Town”? Émile Torres en conversación con R.U. Sirius”.

Cuando leí el artículo, mi primer pensamiento fue: “Mindplex se ha ido a “Crazy Town”! “

El concepto de TESCREAL, que ha sido promocionado varias veces en varios lugares en los últimos meses, contrae un conjunto rico y diverso de ideas a una conclusión enormemente simplificada. Sugiere que los peores aspectos de las personas que sostienen cualquiera de las creencias incluidas en ese supuesto paquete de ideas se pueden atribuir, con confianza, a otras personas que sostienen solo algunas de estas ideas.

Peor aún, sugiere que toda la “clase gobernante” del Silicon Valley suscribe a lo peor de estas creencias.

Es como si eligiera al azar a un ateo e insistiera en que es igualmente asesino que Stalin o Mao.

O si eligiera al azar a un musulmán e insistiera en que desea la muerte de cada persona (apóstata) que creció en la fe musulmana y posteriormente abandonó esa fe.

En lugar de esa contracción conceptual, lo que el mundo necesita verdaderamente en la actualidad es una exploración de mente abierta de un amplio conjunto de ideas complejas y sutiles.

No la sed de sangre que parece motivar a los analistas del movimiento TESCREAL.

No la incitación al odio hacia los emprendedores y tecnólogos que están construyendo muchos productos notables en el Silicon Valley, personas que, sí, deben rendir cuentas por parte de lo que están haciendo, ¡pero que de ninguna manera son un grupo uniforme!

Soy una T pero no una L

Tomemos un ejemplo: yo.

Me identifico públicamente como transhumanista, la ‘T’ de TESCREAL.

La palabra ‘transhumanista’ aparece en la portada de uno de mis libros, y la palabra relacionada ‘transhumanismo’ aparece en la portada de otro.

Portadas de “Vital Foresight” y “Sustainable Superabundance” de David Wood publicados en 2021 y 2019 respectivamente. Crédito: (David Wood)

Al mismo tiempo, también he sido ejecutivo de tecnología. Estaba principalmente localizado en Londres, pero era responsable de supervisar al personal en la oficina de Symbian en Redwood City, en Silicon Valley. Juntos, imaginamos cómo los dispositivos de última generación llamados ‘teléfonos inteligentes’ podrían mejorar con el tiempo muchos aspectos de la vida de los usuarios. (Y también reflexionamos sobre al menos algunos posibles inconvenientes, incluyendo los riesgos de violaciones de seguridad y privacidad, razón por la cual defendí la nueva reconfiguración de ‘seguridad de plataforma’ del kernel OS Symbian. Pero me desvío del tema).

Dado que soy ‘T’, ¿significa eso que también soy ESCREAL?

Examinemos esa ‘L’ final. Largoplacismo. Esta letra es fundamental para muchos de los argumentos presentados por los analistas del movimiento TESCREAL.

‘Largoplacismo” es la creencia de que las necesidades de potencialmente vastos números de personas aún no nacidas (y no concebidas) en futuras generaciones pueden primar las necesidades de las personas que viven actualmente.

Bueno, yo no adhiero al “largoplacismo”. No guía mis decisiones.

Me motiva la posibilidad de que la tecnología mejore enormemente la vida de todos alrededor del mundo que viven hoy. Y por la necesidad de anticipar y prevenir posibles catástrofes.

Con “catástrofe”, me refiero a cualquier evento que mate a grandes cantidades de personas que están vivas actualmente.

Las muertes del 100% de los que viven hoy aniquilarán el futuro de la humanidad, pero las muertes de ‘solo’ el 90% de las personas no lo harán. A los largoplacistas les gusta señalar esto, y aunque puede ser teóricamente correcto, no proporciona ninguna justificación para ignorar las necesidades de las personas actuales, para aumentar la probabilidad de que nazcan mayores cantidades de personas en el futuro.

Algunas personas han dicho que han sido persuadidas por el argumento largoplacista. Pero sospecho que eso es solo una pequeña minoría de personas más bien intelectuales. Mi experiencia con personas en Silicon Valley y con otros que están diseñando y construyendo nuevas tecnologías es que estas consideraciones abstractas largoplacistas no guían sus decisiones diarias. Para nada. 

Crédito: Tesfu Assefa

Los conceptos son complicados

Aquí hay un punto más amplio que debe señalarse. Conceptos como ‘transhumanismo’ y ‘largoplacismo’ encarnan una rica variedad.

Lo mismo ocurre con todos los demás componentes del supuesto paquete TESCREAL: E para Extropianismo, S para Singularitarianismo, C para Cosmismo, R para Racionalismo y EA para Altruismo Efectivo.

En cada caso, debemos evitar el contraísmo, pensar que si has escuchado a una persona que defiende esa filosofía expresar una opinión, entonces puedes deducir lo que piensan sobre todos los demás asuntos. En la práctica, las personas son más complicadas, y las ideas son más complicadas.

Según lo veo, partes de cada una de las filosofías T, E, S, C, R y EA merecen una amplia atención y apoyo. Pero si eres hostil y buscas un poco, puedes encontrar fácilmente a personas, dentro de las comunidades alrededor de cada uno de estos términos, que han dicho algo despreciable o aterrador. Y luego puedes etiquetar (perezosamente) a todos los demás en esa comunidad con ese mismo rasgo indeseado. (“Viste a uno; ¡los viste a todos!”)

Estas comunidades extendidas sí tienen algunas personas con rasgos indeseados. De hecho, tanto T como S han atraído lo que yo llamo una ‘sombra’: un conjunto de creencias y actitudes asociadas que son desviaciones de las valiosas ideas centrales de la filosofía. Aquí hay una imagen que uso de la sombra de la Singularidad:

Una imagen de portada de video de ‘The Vital Syllabus Playlist’ donde David Wood examina la Sombra de la Singularidad. Crédito: (David Wood)

Y aquí tienes una imagen de la sombra transhumanista:

Una imagen de portada de video de ‘The Vital Syllabus Playlist’ donde David Wood examina la Sombra Transhumanista. Crédito: (David Wood)

(En ambos casos, puedes hacer clic en los enlaces de la descripción para ver un video que ofrece un análisis más completo.)

Como puedes ver, los rasgos en la sombra transhumanista surgen cuando las personas no logran mantener lo que he enumerado como “valores transhumanistas”.

La existencia de estas sombras es innegable y desafortunada. Las creencias y actitudes en ellas pueden disuadir a los observadores independientes de tomar en serio el fundamento de estas filosofías.

En ese caso, podrías preguntar, ¿por qué persistir con los términos fundamentales “transhumanismo” y “singularidad”? ¡Porque hay mensajes positivos críticamente importantes en ambas filosofías! Pasemos a estos a continuación.

La previsión más vital 

Aquí mi resumen de 33 palabras de la previsión más vital que puedo ofrecer:

Inminentes olas de cambio tecnológico están listas para traer consigo tanto la destrucción global como una abundancia sostenible paradisíaca, dependiendo del oportuno fortalecimiento de la visión transhumanista, la política transhumanista y la educación transhumanista.

Vamos a revisarlo de nuevo, más despacio esta vez. 

Primero lo primero. Los cambios tecnológicos en las próximas décadas pondrán un inmenso poder en las manos de miles de millones de personas. En lugar de centrarnos en las implicaciones de la tecnología actual, por significativas que sean, debemos dirigir nuestra atención a las aún mayores implicaciones de la tecnología del futuro cercano.

En segundo lugar, estas tecnologías amplificarán los riesgos de desastres humanitarios. Si ya nos preocupan estos riesgos hoy (como deberíamos), deberíamos estar aún más preocupados por cómo se desarrollarán en el futuro cercano.

En tercer lugar, el mismo conjunto de tecnologías, manejado con más sabiduría y dirigido de manera más enérgica, puede dar como resultado un resultado muy diferente: una superabundancia sostenible de energía limpia, nutrición saludable, bienes materiales, excelente salud, inteligencia integral, creatividad dinámica y una colaboración profunda.
Cuarto, la influencia más significativa en la realización de cualquiera de estos resultados es la adopción generalizada del transhumanismo. Esto implica a su vez tres actividades:

  • Abogar por la filosofía transhumanista como una cosmovisión integral que aliente e inspire a todos a unirse al próximo salto evolutivo en la gran escalera evolutiva de la vida: podemos y debemos desarrollarnos a niveles más altos, física, mental y socialmente, utilizando la ciencia, la tecnología y métodos racionales.
  • Extender las ideas transhumanistas a actividades políticas del mundo real, para contrarrestar tendencias muy destructivas en ese campo.
  • Apoyar las iniciativas anteriores: una transformación del mundo de la educación, para proporcionar a todos habilidades adaptadas a las circunstancias muy diferentes del futuro cercano, en lugar de las necesidades del pasado.

Finalmente, más allá de la trascendental transición que acabo de describir está el potencial de un cambio aún más grande, en el cual la tecnología avanza aún más rápido, con la llegada de una inteligencia artificial que tenga la capacidad de auto-mejorarse con niveles sobrehumanos de capacidad en todos los aspectos del pensamiento.

Eso nos lleva al tema de la Singularidad.

La Singularidad es el punto en el tiempo en el cual las inteligencias artificiales podrían, potencialmente, tomar el control del mundo de los humanos. El hecho de que la Singularidad podría ocurrir en unas pocas décadas merece ser proclamado a los cuatro vientos. Eso es lo que hago, parte del tiempo. Eso me convierte en un singularitario.

Pero no significa que yo, ni otros que también intentan concientizar sobre esta posibilidad, caigamos en ninguno de los rasgos de la Sombra de la Singularidad. No significa, por ejemplo, que seamos complacientes acerca de los riesgos, o que todos pensemos que es básicamente inevitable que la Singularidad será beneficiosa para la humanidad.

Así que, el Singularitarianismo (S) no es el problema. El Transhumanismo (T) no es el problema. Tampoco, por cierto, el problema radica en las creencias fundamentales de las partes E, C, R, o EA del supuesto conjunto TESCREAL. El problema radica en otro lugar.

Lo que debería preocuparnos no es TESCREAL, sino CASHAP

En lugar de obsesionarnos con una supuesta toma de control de Silicon Valley por parte de TESCREAL, aquí está en lo que deberíamos estar realmente preocupados: CASHAP.

C es para contractivismo: la tendencia a fusionar ideas que no necesariamente deberían ir juntas, a pasar por alto variaciones y complejidades en las personas y en las ideas, y a insistir en que los valores fundamentales de un grupo pueden ser denigrados solo porque algunos miembros periféricos tienen creencias o actitudes desagradables.

(Nota: mientras que los seguidores del concepto TESCREAL son culpables de contractivismo, mi concepto alternativo de CASHAP es diferente. No estoy sugiriendo que las ideas en él siempre pertenezcan juntas. Cada una de las ideas individuales que componen CASHAP son perjudiciales).

A es para aceleracionismo: el deseo de ver nuevas tecnologías desarrolladas y desplegadas lo más rápido posible, bajo la creencia irresponsable de que cualquier defecto encontrado en el camino siempre se puede solucionar fácilmente en el proceso (“moverse rápido y romper cosas”).

S es para sucesionismo: la idea de que si la inteligencia artificial superinteligente desplaza a la humanidad del control del planeta, esa sucesión debería ser automáticamente bienvenida como parte del gran proceso evolutivo, independientemente de lo que suceda con los humanos en el proceso, sin importar si las IA tienen conciencia, y de hecho, sin importar si estas IA se autodestruyen a sí mismas y al planeta.

H es para exageración: creer en ideas demasiado fácilmente porque encajan en tu visión preexistente del mundo, en lugar de utilizar el pensamiento crítico.

AP es para antipolítica: creer que la política siempre empeora las cosas, obstaculizando la innovación y la creatividad. En realidad, la buena política ha sido increíblemente importante para mejorar la condición humana.

Conclusión

Concluiré este artículo enfatizando las características positivas opuestas a los rasgos indeseables de CASHAP que acabo de enumerar.

En lugar de caer en el contractivismo, debemos estar listos para expandir nuestro pensamiento y dejar que nuestras ideas sean desafiadas. Debemos estar preparados para encontrar ideas importantes en lugares inesperados, incluso entre personas con las que tengamos muchas desavenencias. Debemos estar listos para poner en espera nuestras reacciones emocionales de vez en cuando, ya que nuestros instintos previos de ninguna manera son una guía infalible para los tiempos turbulentos que se avecinan.
En lugar de aceleracionismo, debemos utilizar un conjunto de herramientas más sofisticado: a veces frenando, a veces acelerando y también dirigiendo mucho. Eso es lo que he llamado el enfoque tecno-progresista (o tecno-ágil) hacia el futuro.

Crédito: David Wood

En lugar de caer en el sucesionismo, deberíamos abrazar el transhumanismo: podemos y debemos elevar a los humanos de hoy hacia niveles más altos de salud, vitalidad, libertad, creatividad, inteligencia, conciencia, felicidad, colaboración y goce. Y antes de presionar cualquier botón que pueda llevar a la humanidad a ser desplazada por inteligencias artificiales superinteligentes que podrían poner fin a nuestro florecimiento, ¡necesitamos investigar cuidadosamente una gran cantidad de problemas!

En lugar de la exageración, debemos reafirmar nuestro compromiso con el pensamiento crítico, siendo más conscientes de cualquier tendencia a llegar a conclusiones falsas o dar demasiado peso a conclusiones que son sólo tentativas. De hecho, ese es el mensaje central de la parte R (racionalismo) de TESCREAL, lo que hace aún más “Crazy Town” que el R sea despreciado por esa simplificación contractiva.

Debemos aclarar y defender lo que se ha llamado “el camino estrecho” (o a veces simplemente “política futura“) —que se encuentra entre estados que tienen muy poco poder (dejando a las sociedades como rehenes de cánceres destructivos que pueden crecer en nuestro medio) y tener demasiado poder (sin contrapeso de una “sociedad fuerte”).

TESCREALismo ¿Se ha ido la clase gobernante de Silicon Valley a “Crazy Town”? Émile Torres en conversación con R.U. Sirius

TESCREALismo

T=Transhumanismo
E=Extropianismo
S=Singularitarianismo
C=Cosmismo
R=Racionalismo
EA=Altruismo Efectivo
L=Largoplacismo

Émile Torres, filósofo e historiador que se ha centrado recientemente en las amenazas existenciales, ha desarrollado lo que él llama un ‘paquete’ (podríamos llamarlo un memeplex) que pretende vincular la serie de -ismos mencionados anteriormente en una especie de fuerza singular que ha sido adoptada por muchos de los super millonarios e influyentes en el mundo tecnológico. Es la influencia de estos tropos en los súper ricos e influyentes lo que, según Torres, los vuelve muy peligrosos.

En un artículo para Truthdig, Torres escribe: “En el corazón del TESCREALismo hay una visión ‘tecno-utópica’ del futuro. Anticipa un momento en el que las tecnologías avanzadas permitirán a la humanidad lograr cosas como: producir abundancia radical, reingeniarnos a nosotros mismos, volvernos inmortales, colonizar el universo y crear una expansiva civilización ‘post-humana’ de trillones y trillones de personas entre las estrellas. La manera más directa de realizar esta utopía es construyendo una superinteligencia AGI“.

En el mismo texto, Torres se aventura en proyecciones aún más salvajes, que sospecho incluso muchos lectores de Mindplex, entusiastas de la tecnología y orientados hacia el transhumanismo encontrarán fantásticas (enraizadas en mentes brillantes que toman sus fantasías como realidad). El teorema de Torres se apoya fuertemente en las opiniones del profesor de Oxford Nick Bostrom, y sostiene que “argumenta que si hay tan solo un 1% de posibilidad de que existan 10^52 vidas digitales en el futuro, entonces ‘el valor esperado de reducir el riesgo existencial en tan solo una milmillonésima de un punto porcentual vale cien mil millones de veces más que salvar mil millones de vidas humanas’. En otras palabras, si mitiga el riesgo existencial por esta cantidad minúscula, ha hecho el equivalente moral de salvar miles de millones y miles de millones de vidas humanas existentes”.

Como explicó en su conversación con Douglas Rushkoff, Torres identifica al TESCREALismo como un ‘paquete’ filosófico que, en cierto sentido, trivializa las vidas y sufrimientos de los humanos que existen actualmente y encuentra una mayor importancia en los posiblemente billones de posthumanos que podrían existir en el espacio físico y/o virtual en el futuro, ‘personas’ que tienen experiencias que pueden ser valoradas más allá de nuestra imaginación. Algunos de ellos tienden a usar estadísticas para valorar la experiencia, y no hay nada más alejado y alienado de la verdadera experiencia que ese tipo de estadísticas. 

Asumo que todos ustedes conocen el transhumanismo y la singularidad. Si están aquí, probablemente conozcan el proyecto de Ben Goertzel para construir una AGI. Pero, ¿están familiarizados con el extremismo y las excentricidades que se han adherido al Racionalismo (definido por LessWrong), el Altruismo Efectivo y el Largoplacismo?

En la siguiente entrevista, principalmente le pido a Torres que aclare qué tan real es todo esto. ¿Mucha gente compra todo el paquete filosófico? Mi propia actitud, incluso como transhumanista de larga data, siempre ha sido un poco “¿es en serio?” cuando se trata de personas que se toman demasiado en serio, especialmente cuando se han engañado creyendo que son racionales.

En una encuesta de seguimiento, pediré a los lectores de Mindplex y a veteranos de la cultura transhumanista que opinen sobre el paquete TESCREAL.

RU Sirius: En tu libro Extinción Humana: Una Historia de la Ciencia y Ética de la Aniquilación, pasaste de escribir sobre amenazas existenciales como fenómenos históricos a varios tropos transhumanistas. Mientras lo leía, fue como si de pronto hubiéramos pasado de la ciencia y la geología a la ciencia ficción. Luego me preguntaba si existía la ciencia ficción en tiempos antiguos. (Supongo que estaban la Biblia y otros mitos). ¿Cómo llegaste a esto?

Émile Torres: A mediados de la década de 2000, me encontré con el transhumanismo por primera vez. Inicialmente, fui muy crítico al respecto. El segundo artículo que publiqué fue una crítica al transhumanismo. Pero luego, ciertas consideraciones me llevaron a considerar al transhumanismo como una posición defendible, y me convertí en una suerte de transhumanista.

Y, una de las consideraciones principales fue que el desarrollo de estas tecnologías es inevitable. Entonces, si estás en contra del transhumanismo, tal vez necesites oponerte al desarrollo de ciertas tecnologías de ingeniería personal. Pero dado que son inevitables, no tiene sentido oponerse a ellas sólo para frenar la marea. Por eso, lo mejor es unirse a los transhumanistas y hacer lo posible para asegurar que ese proyecto se realice de la manera más óptima.

La noción de riesgo existencial estuvo estrechamente vinculada al transhumanismo desde el principio: inicialmente, se definió el riesgo existencial como ‘cualquier cosa que pueda evitar que creemos una civilización posthumana’.

RUS: Estoy seguro de que se debe haber hablado del riesgo existencial antes en varios círculos intelectuales… ¿sobre la guerra nuclear y demás?

ÉT: Definitivamente se hablaba de extinción y catástrofe global. Pero lo novedoso acerca de esta idea de riesgo existencial, como lo indica la definición, es la idea de un desarrollo futuro deseable. 

Había personas, sobre todo en la segunda mitad del siglo XX, argumentando que una razón por la cual la extinción humana sería mala es que clausuraría la realización de todo progreso futuro, felicidad futura, y así sucesivamente. Pero ese argumento de potencial perdido nunca fue formalizado. El enfoque realmente estaba en extinguirse. Todos en la Tierra van a morir. Tú y yo vamos a morir. Nuestras familias morirán. Eso era lo más destacado. El potencial perdido no era lo central.

La noción de riesgo existencial, creo, invirtió eso y destacó el potencial perdido: el argumento central se convirtió en que el peor aspecto de la extinción humana es el potencial perdido. No son las 8 mil millones de personas que morirán. Eso es muy malo, pero la gravedad del potencial perdido tiene una magnitud mayor.

RUS: Puede que esté un poco desconectado de la cultura transhumanista… para mí, es una extraña iteración del transhumanismo. No es algo con lo que me encontrara mucho cuando interactuaba con ese mundo de 2007 a 2010 como editor de h+ magazine. En ese momento, principalmente escuchabas sobre la extensión de la vida y otras mejoras. O inmortalidad, si querías ir realmente lejos. La idea de niños con mentes mejoradas estaba presente, pero como algo muy especulativo. Pero la idea de sacrificar a casi todos por personas futuras imaginarias, como has discutido en tus textos sobre TESCREAL, no parecía estar muy difundida en ese entonces.

ÉT: Eso me parece correcto. Creo que esta noción de potencial es realmente central para el largoplacismo. La definición inicial viene del 2002, con Bostrom discutiendo las dinámicas de transición desde nuestra civilización humana hacia una civilización posthumana, destacando el potencial de convertirse en posthumano. Esto también estaba relacionado con la idea de que la creación de la posthumanidad no solo es valiosa porque es una buena manera de que se desarrolle la historia cósmica, sino también porque tú y yo podríamos beneficiarnos, ¿cierto?

Entonces, ¿por qué es importante crear una civilización posthumana (según Bostrom y personas como él)? Bueno, porque si sucede en mi vida, tal vez llegue a vivir para siempre. O incluso si sucede en tal vez mil años, todavía alcanzo a vivir para siempre porque me inscribiré en ALCOR y seré resucitado. Así que realmente veo este momento como una especie de giro hacia pensar en el futuro lejano. Creo que inicialmente, para los transhumanistas, estaba vinculado con su propio destino como individuos.

RUS: Estaba pensando que tal vez, por ejemplo, Eliezer Yudkowsky está siendo desinteresado cuando habla de arriesgar la guerra nuclear y sacrificar la mayor parte de la vida en el planeta para asegurarse de que la inteligencia artificial no ocurra antes de que él considere que estamos listos. Porque me parece que él podría tener al menos una probabilidad del 50:50 de ser víctima de la guerra nuclear que está dispuesto a arriesgar para evitar el desarrollo prematuro de la IA. Así que creo que está siendo desinteresado, le gusta tanto la idea de los futuros humanos felices que está dispuesto a sacrificarse a sí mismo.

ÉT: Mi interpretación de la historia es que realmente fue en la década del 2000 que las personas en esta comunidad se dieron cuenta de lo inmenso que podría ser el futuro. Con esa conciencia, se produjo un cambio correspondiente en el énfasis moral.

Yudkowsy quiere vivir para siempre. En el podcast de Lex Fridman, dijo que creció creyendo que viviría para siempre. Y parte del trauma para él, como mencionó en ese podcast, es estar en esta situación donde la AGI está tan cerca y tiene que enfrentarse a su propia mortalidad, tal vez por primera vez. Parece que su pensamiento ejemplifica este cambio a lo largo de la década de 2000.

RU: Para mí suena como si todo fuera fantasía. Algunas de estas cosas que has mencionado como parte de este paquete, como los teóricos billones de personas, incluidas las personas digitales, teniendo experiencias cuantificablemente grandiosas, suena como una lluvia de ideas de nerds drogados en una habitación universitaria que simplemente nunca terminaron. Siguen elaborando desde la premisa original, aislándose cada vez más de las experiencias del mundo real, día a día. Las ideas solían madurar; ahora simplemente parecen volverse más estrafalarias. No puedo demostrarlo, pero podría ser el resultado de la economía de la atención. Para parafrasear incorrectamente a Niels Bohr, “Tu idea es una locura, pero no es lo suficientemente loca como para ganar seguidores en las redes sociales”.

ÉT: En cuanto a la economía de la atención, tengo la impresión de que los largoplacistas reconocen que esta visión del futuro es un poco descabellada. Quiero decir, algunos de ellos han utilizado el término “Crazy Town” o “Pueblo Loco”. En consecuencia, creo que hacen todo lo posible por no mencionar públicamente cuáles son sus objetivos reales. Las ideas descabelladas captan la atención del público, pero en este caso, creo que sienten que algunas de estas ideas no son una buena estrategia de relaciones públicas.

¿Qué hay acerca de la IA útil?

Crédito: Tesfu Assefa

RUS: Con respecto a tu afirmación de que la actividad de la inteligencia artificial solo se puede explicar mediante esta configuración ideológica, no sé si te estás refiriendo a la IA práctica y útil, por ejemplo, para rastrear y responder a las condiciones meteorológicas, desarrollar vacunas y otras respuestas a pandemias, crear medicamentos, etc, o si te refieres sólo a la IA que realiza lo que consideramos tareas intelectuales o creativas.


ÉT: No creo que la IA en general esté motivada por esta ideología. La carrera hacia la AGI . Y creo que hay dos factores. Uno que es obvio es el motivo de lucro. Microsoft y Google esperan obtener miles de millones de dólares con estos grandes modelos de lenguaje. Pero creo que el otro componente crucial de la imagen explicativa es el TESCREALismo.

Es como… ¿Por qué se formó DeepMind en primer lugar? ¿Por qué Demis Hassabis, que estuvo en muchas de estas conferencias transhumanistas, la fundó? Y Shane Legg, que recibió $100,000 del Instituto Canadiense de Singularidad para la Inteligencia Artificial después de completar su tesis de doctorado y dio charlas en las conferencias Singularity Summit.

RUS: Si fuera a todas las salas de juntas en Silicon Valley y hablara con los propietarios y programadores, ¿crees que la mayoría de ellos abrazaría toda la filosofía de TESCREAL? Mi suposición es que tienden a ser transhumanistas, y muchos podrían ser singularitarianos, pero probablemente no estén tan interesados en el aspecto de ‘billones de personas futuras’ de ese proyecto. Digo, ¿realmente qué tan ubicuas son estas ideas?

ÉT: En cuanto a la ubicuidad de las creencias de TESCREAL, creo que tienes razón. Muchos ni siquiera usarían la palabra transhumanismo. Podrías preguntar, “¿Apoyarías la reingeniería del organismo humano?” O preguntar, “¿Estás financiando proyectos para intentar reingeniar el organismo humano para que podamos fusionar la inteligencia artificial en nuestros cerebros?”. Creo que muchos dirían que sí. Y estarían a favor de muchos aspectos de la cosmovisión largoplacista, como el imperativo de colonizar el espacio y saquear el cosmos. Mi fuerte sospecha es que eso es lo que estas personas asumen como algo normal.

Un artículo que quiero escribir trataría sobre los diferentes términos e ideas que varios autores utilizan para describir la cultura del Silicon Valley, utilizando términos diferentes, pero describiendo en última instancia el mismo fenómeno. Así que a lo que me refiero con TESCREALismo es lo que ese tipo de extrema derecha Richard Hanania llama “la derecha tecnológica”.

Un artículo del Huffington Post mencionaba que tiene opiniones supremacistas blancas. Y él dijo, “Odio la palabra TESCREALismo”. Así que lo llamó la ‘derecha tecnológica’. Douglas Rushkoff llama a esto ‘la mentalidad’; él dice que está en todas partes en Silicon Valley entre los multimillonarios de la tecnología, y al hablar con ellos sobre sus puntos de vista, descubrió que todos pensaban: “el futuro es digital. Vamos a mejorar nuestras mentes. Vamos a expandirnos por todo el espacio” y así. Lo que Rushkoff quiere decir con ‘la mentalidad’ es básicamente lo que yo entiendo por TESCREALismo. ¿Dirían estas personas que encarnan ‘la mentalidad’, “sí, soy un largoplacista y creo que lo más importante moralmente es conquistar el espacio y crear todas estas personas digitales en el futuro”? No lo sé. Pero su visión del mundo se parece mucho al largoplacismo.

RUS: ¿Crees que la falta de preocupación por las personas que viven actualmente, como una especie de manifestación política de la visión largoplacista, está llevando a algunas personas del Silicon Valley hacia el extremismo de derecha?

ÉT: Creo que eso es en gran medida correcto. Creo que algunas personas, como Wil Macaskill, [una figura en el ‘altruismo efectivo‘], realmente aceptan esta posición filosófica muy abstracta de que lo que importa es que haya un gran número de personas en el futuro. Y muchos multimillonarios de la tecnología ven esta visión como vinculada con su destino como individuos. Entonces, el razonamiento es como… “Quiero construir un búnker para sobrevivir al apocalipsis para poder llegar al espacio, tener mi mente digitalizada” y así. Y eso definitivamente puede llevar a esta falta de consideración por la mayoría de los seres humanos. Un ejemplo extremo de esto es la noticia que se difundió de que el hermano de Sam Bankman-Fried y otra persona en FTX habían discutido la posibilidad de comprar la nación insular de Nauru explícitamente para que los miembros del movimiento ‘altruismo efectivo’ pudieran sobrevivir a un evento apocalíptico que mataría hasta, como escribieron en el documento, el 99,9% de los seres humanos.

La Singularidad probablemente no está cerca

Crédito: Tesfu Assefa

RUS: Ben Goertzel dijo que debería preguntarte si crees que la Singularidad ocurrirá. Y si sucede, ¿ocurrirá en 2035 o 2050?

ÉT: Supongo que depende de lo que uno entienda por la Singularidad. Está la interpretación de la explosión de la inteligencia… está la idea de Kurzweil que tiene que ver simplemente con el ritmo del cambio.

RUS: Yo pienso en la Singularidad como el punto en el que las inteligencias artificiales se vuelven más inteligentes que nosotros, y más allá de eso, no se puede predecir nada. No puedes predecir quiénes seremos, o si estaremos presentes, o cómo será el mundo. El escritor de ciencia ficción Vernor Vinge fue la primera persona en sugerir esa idea de una Singularidad. Crearíamos inteligencias que se volverían tan incomprensibles para nosotros como nosotros lo somos para los gusanos.

ÉT: Simpatizo con esa perspectiva de la Singularidad. Simplemente no hay mucho que podamos decir más allá de eso. Soy muy escéptico acerca de la idea de la explosión de inteligencia. Y la idea del ritmo del cambio de Kurzweil parece estar en tensión directa y significativa con el hecho de que una catástrofe climática es casi inevitable a menos que haya alguna nueva tecnología que, a gran escala, elimine el dióxido de carbono de la atmósfera. 

RUS: Kurzweil muestra que la línea ascendente del desarrollo tecnológico humano sobrevivió dos guerras mundiales (de hecho, las guerras mundiales impulsaron el desarrollo tecnológico) y a Mao, Pol Pot y todo tipo de eventos terribles.

ÉT: Creo que el cambio climático es otra cosa.

RUS: Sí, estoy de acuerdo.

ÉT: Estamos hablando de la civilización global. ¿Va a sobrevivir? No lo sé. Quiero decir, hay legítimos climatólogos que no creen que lo hará a menos que se tomen medidas inmediatas para evitar un cambio climático catastrófico.

Recuerdo discutir, hace muchos años, con colegas en el campo del riesgo existencial, donde afirmaba que el cambio climático es un problema mucho más grande de lo que sospechaban. Ellos pensaban: “Inventaremos la IA. Y una vez que tengamos la IA, va a…”

RUS: Resolverá qué hacer, sí.

ÉT: Resolverá qué hacer. Pero, ¿cómo vamos a crear la IA en un mundo que simplemente se desmorona y se cae a pedazos? ¿Cómo vamos a organizar conferencias sobre IA cuando el clima es tan hostil que no se puede llegar allí?

RUS: Supongo que la pregunta se convierte en cuán radical es la intervención de las catástrofes climáticas en el futuro inmediato. La gente piensa que podrían lograr la IA general en los próximos 10-20 años aproximadamente. Y ya estamos lidiando con todo tipo de condiciones meteorológicas desagradables y muertes y destrucción. Pero a simple vista, la civilización occidental parece seguir adelante. La gente se sube a sus autos y va a la tienda. La comida sigue distribuyéndose.

Así que parece que seguimos adelante, y tal vez lo haremos durante 10 o 20 años. Si las personas que están desarrollando la IA general, la robótica relacionada, y demás, logran llegar al laboratorio y hacer su trabajo, conseguir comida, etc., entonces tal vez puedan lograr lo que esperan. Supongo que esa es la idea.

ÉT: Simplemente no es mi área de especialización. Pero tengo la impresión de que, en términos de los modelos de lenguaje grandes (LLM) que tenemos, no hay un camino evidente desde esos sistemas, como ChatGPT, hacia una IA general genuina o superinteligencia.

RUS: Mucha gente está diciendo que ChatGPT y similares no son la gran cosa. Michio Kaku, que tiende a ser generalmente un promotor tecnológico hiper optimista, lo llamó una grabadora glorificada.

ÉT: Creo que fue Gary Marcus quien se estaba riendo sobre el ascenso y la caída en prestigio, por así decirlo, de ChatGPT. Se convirtió en una línea de chiste durante un debate republicano.

RUS: Todo sucede tan rápido en estos días.

ÉT: Sí. Así que no creo que la Singularidad vaya a ocurrir, probablemente. Y apostaría a que no sucederá pronto, no sucederá en 2045 como predice Kurzweil.

¿Y qué hay de los transhumanistas humanos, los singularitarianos y los entusiastas de la inteligencia artificial?

RUS: Permíteme preguntarte sobre las diversas ideologías e ideales dentro del transhumanismo y sus derivados. Has mencionado a Ben Goertzel, el capitán del barco aquí en Mindplex, en varios lugares como teniendo un papel central en el ‘paquete’ debido a su búsqueda de largo tiempo de la AGI. Y sé que Ben es un humanista, y más o menos un liberal, o incluso mejor. Sé que no quiere explotar, esclavizar o eliminar a las personas actuales en la Tierra, sino que busca elevar a todos. Así que sé por experiencia que hay una gran variación filosófica dentro del transhumanismo.

Recuerdo cuando me pidieron que creara la revista para humanity+, tenía mis propias suposiciones basadas en experiencias anteriores con los Extropianos. Así que les confesé a estos tipos en una reunión, dije: “Tengo que decirles desde el principio que no soy libertario. Soy de izquierda con un toque libertario”. Y uno de los chicos dijo: “Sí, yo también”. Y el otro chico dijo: “Ni siquiera estoy seguro del toque libertario”.

En general, alrededor de esa época, alrededor de 2007, aprendí que muchas personas involucradas con esa organización transhumanista oficial se veían a sí mismas como liberales, más o menos liberales convencionales. Y hay mucha variación dentro de ese mundo.

ÉT: Reconozco y afirmo eso. La noción de TESCREALismo pretende captar la visión tecno-utópica que surgió de algunos de estos movimientos, y señalar los aspectos más negativos de eso. Creo que son los que se han vuelto más influyentes ahora. Entonces, alguien como el socialista democrático James Hughes, tuvo cierta influencia. Pero, en comparación con alguien como Bostrom, su influencia es menor. Y reconozco absolutamente que hay transhumanistas que son anti-libertarios. Algunos de ellos son mormones.

RUS: Sí… ¡los transhumanistas mormones! Son adorables. Creo que cuando personas como Peter Thiel y Elon Musk se vincularon a estas ideas, probablemente se convirtieron en los principales atractores del transhumanismo o las ideas de mejora humana asociadas con él. Más personas que estarían atraídas por sus ideologías se han unido, especialmente en la cultura del Silicon Valley. Estos monstruos aterradores de la clase dominante se convirtieron en la voz pública principal ampliamente disponible para ese tipo de opiniones. Luego tuvimos el movimiento neo reaccionario y el “dark enlightenment” o “iluminación oscura”. La mayoría de las personas que hablaban de eso tendían a abrazar los lugares comunes transhumanistas. Eso se convirtió en la “alt-right” y alimentó la propagación del extremismo de derecha.

Puedes ver cómo la idea de un futuro glorioso, erguirse fuerte y  alto y dispararte hacia el glorioso futuro, podría atraer a un cierto tipo de sensibilidad fascista.

ÉT: Esa es también mi impresión. Obviamente, hay una historia fascinante que involucra futurismo y fascismo. Tal vez tiende a atraer a cierto tipo de persona o se presta a ser interpretado o explotado por fascistas. El TESCREALismo captura ese aspecto.

¿Less Wrong es una secta? 

RUS: Recuerdo estar en una Conferencia sobre la Singularidad y ser abordado por alguien involucrado en Less Wrong. Y sentí algo parecido a ser abordado por una secta. Me pregunto si te has encontrado con algún comportamiento realmente sectario en tus estudios, como personas que se reúnen en comunidades y obtienen armas para defenderse, o adoran al líder y ese tipo de cosas.

ÉT: Definitivamente, hay ese aspecto de líder carismático en el racionalismo. Hay estos posts de Less Wrong que solo elogian a Yudkowsky. Recuerdo ver una lista de declaraciones de una o dos oraciones sobre Yudkowsky. Una de ellas decía algo así como “dentro de la glándula pineal de Eliezer Yudkowsky no hay un alma inmortal, sino otro cerebro”. “En la historia de los pensadores occidentales, hubo Platón, Immanuel Kant, Eliezer Yudkowsky”. (Risas) Alguien a quien no nombraré me dijo que la escena racional del Área de la Bahía es una secta apocalíptica en pleno crecimiento.

Creo que el EA (Altruismo Efectivo) es algo así como una secta. Hubo un artículo publicado recientemente por Carla Cremer. Habló sobre un sistema de clasificación competitivo secreto en el que a los participantes se les restan puntos si tienen un coeficiente intelectual menor de 120.

RUS: ¡Oh! Estaba pensando en preguntarle a las personas involucradas en el transhumanismo si incluso creen que el coeficiente intelectual es una medida legítima de la inteligencia.

ÉT: Me gustaría saber realmente. Porque creo que el realismo del CI es bastante común dentro de esta comunidad. Bostrom ha escrito que el CI es bueno pero imperfecto. Así que tienden hacia el realismo del CI.

¿Alguien se llama a sí mismo un TESCREALista?

RU: Notaste que Marc Andreessen se ha identificado con este conjunto que co-creaste. ¿Hay otros que hayan adoptado directamente el término como una identidad positiva que tú sepas?

ÉT: No, en realidad no. Hanania lo reconoce al argumentar que el ‘tech right’ es un término mejor. Dijo que básicamente teníamos razón acerca de cuáles son las corrientes, qué es el conjunto, pero ‘tech right’ es un término mejor. No me sorprende que no haya más personas que salgan y digan que se identifican como TESCREAListas.

RUS: Tal vez después de que esto se publique en Mindplex, habrá un montón de personas que decidan que eso es lo que son. ¡Oh, querido! ¿Qué hemos causado?

Eugenesia

Crédito: Tesfu Assefa

RUS: Permíteme abordar un tema delicado: la eugenesia. ¿Qué piensas sobre intervenir en la línea germinal para prevenir enfermedades horribles y cosas por el estilo? ¿Crees que puede haber un uso legítimo para ese tipo de intervención?

ÉT: Sí, creo que podría ser permisible bajo ciertas circunstancias. Quiero decir, tengo preocupaciones sobre los límites de para qué se utilizará esa tecnología. ¿Se utilizará solo para lo que intuitivamente llamaríamos fines terapéuticos? Mi principal preocupación es que podría abrir fácilmente la puerta a un enfoque de ‘mejora’. Tan pronto como hablas de mejoras, surgen preguntas como “¿Qué criterios estás utilizando para juzgar si alguna modificación es mejor?” Ahí es donde surge el problema de las ‘superclases’ sobre el cual Bostrom ha escrito.

Gran parte de eso probablemente sea ableista. Lo que significa ‘mejora’ para alguien como Bostrom podría ser completamente diferente a lo que yo podría pensar, ¿verdad?

RUS: Debo confesar que tuve una reacción instintiva la primera vez que escuché el término “ableismo”. Las personas deberían ser capaces. En general, deberíamos estar a favor de las habilidades y no llegar a un punto en el que las personas estén adorando sus partes defectuosas, por así decirlo. Al mismo tiempo, las personas deberían tener el derecho de elegir cómo quieren ser. Pero me siento incómodo con la idea de que las personas quieran mantener lo que la mayoría consideraría una especie de imperfección. Y me pregunto: ¿dónde está la línea para eso?

ÉT: Mi impresión es que palabras como ‘roto’ son términos normativos. Creo que los activistas de derechos de las personas con discapacidades o académicos en el campo de las discapacidades tienen razón cuando dicen: “hay un número infinito de cosas que no puedo hacer”. No puedo volar. La noción de discapacidad, algunos argumentarían, es simplemente una construcción social. Vivimos en una sociedad que no se adapta para alguien que no puede hacer algo que una mayoría estadística de otras personas puede hacer. Eso es lo que se considera una ‘discapacidad’. Entonces, tal vez, si arreglas la sociedad, la discapacidad desaparece incluso si la incapacidad permanece.

RUS: ¿Cómo piensas acerca de los problemas físicos que dificultan la vida de un individuo o de las personas que lo rodean?

ÉT: Hay dos aspectos en eso. Uno es la incapacidad y el otro es la sociedad en la que se vive. Entonces, puedes solucionar o eliminar la discapacidad mejorando la sociedad. Y luego hay un buen argumento de que muchas de las incapacidades que clasificamos como discapacidades no se verían como algo malo. Es simplemente diferente. Hay personas de diferentes alturas. Hay personas que no pueden caminar. Siento que mi corazón se llena de empatía por los académicos de la discapacidad, algunos de los cuales son discapacitados, argumentando que no querrían cambiar. Y su punto de vista de que no deberíamos aspirar a un mundo en el que personas como ellos dejen de existir.

Techno Gloom

RUS: ¿Debemos preocuparnos por las formas extremas de negativismo tecnológico? Por ejemplo, una persona que no puede caminar por sí misma dependerá de la tecnología para desplazarse y probablemente esperará una tecnología aún mejor. Y ahora hay una clara tendencia hacia un extremo negativismo tecnológico, provocado en parte por personas como los TESCREAListas que estás sacando a la luz. Me pregunto si te preocupa que pueda haber una reacción exagerada, una especie de movimiento reaccionario tecnológico que realmente sea perjudicial.

ÉT: No tanto porque no he visto mucha evidencia, al menos no en mi alimentación de redes sociales.

RUS: No vives cerca de San Francisco…

ÉT: Simplificando, muchas personas en mi círculo están a favor de la buena tecnología, no de la mala tecnología. Tal vez tecnologías a pequeña escala, lo cual no significa baja tecnología. Así que puedes tener tecnologías avanzadas que permitirían que alguien se desplace si no puede caminar. Pero sin las megacorporaciones, y todo el control y riesgo que conlleva eso.

El Continuum del Jaque Mate: La Evolución de los Motores de Ajedrez de Inteligencia Artificial

El ajedrez, con su combinación de estrategia, previsión e intelecto, ha cautivado el espíritu competitivo humano durante siglos. Sus orígenes se remontan a la antigua India, y atravesando Persia, donde adquirió el nombre de ‘Shah Mat’ (‘el Rey desamparado’). Con el tiempo, el ajedrez ganó interés global, con millones de personas en todo el mundo enganchadas a este campo de batalla mental, donde reyes y peones bailan en un patrón estratégico hacia la victoria o la derrota.

La computación y las máquinas lógicas automatizadas encontraron un compañero veloz en el ajedrez. El universo estructurado y reglamentado del ajedrez encajó con las ruedas de las primeras computadoras, y así comenzó el viaje del ajedrez y la inteligencia artificial incipiente, dando origen a lo que ahora conocemos como los motores de ajedrez de inteligencia artificial.

Profundicemos en la intersección entre el ajedrez y la máquina, explorando el nacimiento, el presente y el futuro de los motores de ajedrez de inteligencia artificial.

El Tablero de Ajedrez se Encuentra con el Tablero de Circuito: Una Intersección Histórica

La historia del ajedrez y la computación comenzó antes de la era electrónica. La pista más temprana de los rastros de un motor de ajedrez se remonta a Alan Turing, el padre de la ciencia de la computación moderna. Turing conceptualizó una máquina teórica que podría imitar los procesos cognitivos de un jugador de ajedrez. Aunque sus ideas permanecieron en papel, sembraron las semillas para un futuro en el que el ajedrez se convertiría en un área de investigación para lógicos computacionales.

Las reflexiones teóricas de Turing pronto se convirtieron en aplicaciones prácticas. En 1951, la Ferranti Mark I, la primera computadora de propósito general disponible comercialmente en el mundo, jugó una partida de ajedrez. Aunque rudimentaria según los estándares actuales, dio origen al ajedrez computacional. El ajedrez siempre ha sido un problema vanguardista para la inteligencia artificial. Resolver el ajedrez fue el primer paso hacia la AGI (inteligencia artificial general), un problema atractivo para probar los circuitos fundamentales de las nuevas máquinas neuronales.

En 1997, Garry Kasparov, el campeón mundial reinante de ajedrez, se encontró luchando contra Deep Blue de IBM. El encuentro fue más que un juego, fue un enfrentamiento entre la inteligencia humana y la lógica de la máquina. El mundo observó mientras Deep Blue de IBM triunfaba, marcando la primera vez que un campeón mundial fue derrotado por una máquina en condiciones de torneo. Desde esa derrota, la supremacía de la inteligencia artificial en el ajedrez quedó asegurada. Motores como Stockfish y AlphaZero tienen un ELO que supera con creces incluso al de Magnus Carlsen. Ha terminado: en el ajedrez, las máquinas han ganado.

Crédito: Tesfu Assefa

Titanes del Tablero de Ajedrez: Motores de IA vs. Grandes Maestros Humanos

Stockfish, un motor de código abierto, representa la cúspide de la evaluación dirigida, aprovechando el poder de extensas bibliotecas y bases de datos de finales de partida. Su meticulosa evaluación de millones de posiciones futuras potencia la fuerza bruta que respalda esta astucia, combinándolos en una formidable agudeza táctica.

AlphaZero, desarrollado por DeepMind, adoptó un enfoque novedoso. Aprendió ajedrez desde cero, sin conocimientos preprogramados aparte de las reglas básicas. Jugando un número astronómico de partidas contra sí mismo, logró un rendimiento sobrehumano en cuestión de horas, exhibiendo un tipo de ajedrez que no solo dominaba a los oponentes humanos, sino que también estaba imbuido de creatividad, algo que se pensaba alcanzable solo por neuronas orgánicas.

En una partida de 100 juegos, AlphaZero triunfó sobre Stockfish. Esto fue un hito significativo. La batalla entre robots fue un espectáculo, con AlphaZero a menudo eligiendo caminos menos transitados y mostrando una inclinación por un juego dinámico y no convencional.

Esto es clave; el ajedrez de AlphaZero no se parece en nada al ajedrez humano. El motor neuronal mostraba niveles de perspicacia que los grandes maestros deben desentrañar para comprender la lógica. El potencial de cálculo de las máquinas modernas podría significar jugar un juego completamente diferente. El reconocimiento intuitivo de patrones de AlphaZero hace que se sienta ‘inteligente’. No es una calculadora Turing robusta que avanza a través de miles de millones de pasos, sino una máquina verdaderamente ‘pensante’, con percepciones similares a las del ingenio humano.

No solo había ‘resuelto’ el ajedrez con pura potencia de procesamiento. Eso es (probablemente) imposible. En resumen, hay más movimientos posibles en el ajedrez que átomos en el universo. Y eso es si solo consideramos conjuntos restringidos de movimientos ‘sensatos’. En la primera jugada, las negras tienen 900 movimientos. En la vigésima jugada, es prácticamente infinito para todos los propósitos razonables. Hasta ahora, nosotros, incluso con inmensa potencia de procesamiento de IA ‘tonta’ como Stockfish, solo podemos calcular hasta cierto punto. Es por eso que el reconocimiento de patrones de AlphaZero es tan fascinante, porque se siente como el nuestro, simplemente ayudado y alentado por la potencia similar a la de Stockfish.

Así que el avance de la IA en el ajedrez no tiene por qué significar la obsolescencia para los jugadores humanos. El ajedrez ha sido un estandarte para la IA durante décadas. Aunque admitimos que nuestros agentes de IA son mejores, quizás aún haya cosas de las que podamos aprender mutuamente. El ajedrez centauro es una de esas exploraciones, donde los jugadores humanos utilizan la IA para participar en torneos.

Jaque Mate Futuro: Las Implicaciones Más Amplias de la IA en el Ajedrez

En las salas de entrenamiento, los motores de ajedrez de IA están transformando la forma en que los jugadores se preparan y trazan estrategias. La capacidad de las máquinas para simular escenarios y analizar las implicaciones de las posiciones se ha convertido en una herramienta invaluable para los jugadores que buscan perfeccionar sus habilidades.

La evolución de la IA en el ajedrez incluso tiene efectos más allá del juego. Los principios que subyacen al éxito de los motores de ajedrez encuentran resonancia en otros ámbitos que requieren toma de decisiones estratégicas y resolución de problemas. Ya sea optimizando logísticas complejas, navegando por los mercados financieros o desentrañando los misterios de las estructuras moleculares, la esencia de la lógica computacional perfeccionada en el tablero de ajedrez encuentra aplicaciones en muchos campos. El ajedrez aún ocupa un lugar central en la investigación de la IA. Maia es un ejemplo de ello, un motor de ajedrez que comete errores humanos y actúa como una plataforma de investigación para interacciones humanas con la IA e interacciones naturales en sistemas cerrados.

La saga de la IA en el ajedrez es un microcosmos de la narrativa más amplia de la IA en la sociedad humana. Es una narrativa de mejora, colaboración y la búsqueda incesante del conocimiento. El tablero de ajedrez, una vez un campo de batalla de reyes y reinas, ahora se erige como un campo de batalla de hombres y máquinas, un símbolo de un futuro donde juntos se aventuran en el reino de lo desconocido, persiguiendo la sombra de la perfección.