back

TESCREALismo ¿Se ha ido la clase gobernante de Silicon Valley a “Crazy Town”? Émile Torres en conversación con R.U. Sirius

Feb. 09, 2024. 25 mins. read. Interactions
For the original version of this article, please click here.

Examine o extremismo e excentricidades associadas ao Racionalismo. Aprofunde-se no significado, ética, práticas e aplicações dentro do Transhumanismo e Singularitarianismo.

Crédito: Tesfu Assefa

TESCREALismo

T=Transhumanismo
E=Extropianismo
S=Singularitarianismo
C=Cosmismo
R=Racionalismo
EA=Altruismo Efectivo
L=Largoplacismo

Émile Torres, filósofo e historiador que se ha centrado recientemente en las amenazas existenciales, ha desarrollado lo que él llama un ‘paquete’ (podríamos llamarlo un memeplex) que pretende vincular la serie de -ismos mencionados anteriormente en una especie de fuerza singular que ha sido adoptada por muchos de los super millonarios e influyentes en el mundo tecnológico. Es la influencia de estos tropos en los súper ricos e influyentes lo que, según Torres, los vuelve muy peligrosos.

En un artículo para Truthdig, Torres escribe: “En el corazón del TESCREALismo hay una visión ‘tecno-utópica’ del futuro. Anticipa un momento en el que las tecnologías avanzadas permitirán a la humanidad lograr cosas como: producir abundancia radical, reingeniarnos a nosotros mismos, volvernos inmortales, colonizar el universo y crear una expansiva civilización ‘post-humana’ de trillones y trillones de personas entre las estrellas. La manera más directa de realizar esta utopía es construyendo una superinteligencia AGI“.

En el mismo texto, Torres se aventura en proyecciones aún más salvajes, que sospecho incluso muchos lectores de Mindplex, entusiastas de la tecnología y orientados hacia el transhumanismo encontrarán fantásticas (enraizadas en mentes brillantes que toman sus fantasías como realidad). El teorema de Torres se apoya fuertemente en las opiniones del profesor de Oxford Nick Bostrom, y sostiene que “argumenta que si hay tan solo un 1% de posibilidad de que existan 10^52 vidas digitales en el futuro, entonces ‘el valor esperado de reducir el riesgo existencial en tan solo una milmillonésima de un punto porcentual vale cien mil millones de veces más que salvar mil millones de vidas humanas’. En otras palabras, si mitiga el riesgo existencial por esta cantidad minúscula, ha hecho el equivalente moral de salvar miles de millones y miles de millones de vidas humanas existentes”.

Como explicó en su conversación con Douglas Rushkoff, Torres identifica al TESCREALismo como un ‘paquete’ filosófico que, en cierto sentido, trivializa las vidas y sufrimientos de los humanos que existen actualmente y encuentra una mayor importancia en los posiblemente billones de posthumanos que podrían existir en el espacio físico y/o virtual en el futuro, ‘personas’ que tienen experiencias que pueden ser valoradas más allá de nuestra imaginación. Algunos de ellos tienden a usar estadísticas para valorar la experiencia, y no hay nada más alejado y alienado de la verdadera experiencia que ese tipo de estadísticas. 

Asumo que todos ustedes conocen el transhumanismo y la singularidad. Si están aquí, probablemente conozcan el proyecto de Ben Goertzel para construir una AGI. Pero, ¿están familiarizados con el extremismo y las excentricidades que se han adherido al Racionalismo (definido por LessWrong), el Altruismo Efectivo y el Largoplacismo?

En la siguiente entrevista, principalmente le pido a Torres que aclare qué tan real es todo esto. ¿Mucha gente compra todo el paquete filosófico? Mi propia actitud, incluso como transhumanista de larga data, siempre ha sido un poco “¿es en serio?” cuando se trata de personas que se toman demasiado en serio, especialmente cuando se han engañado creyendo que son racionales.

En una encuesta de seguimiento, pediré a los lectores de Mindplex y a veteranos de la cultura transhumanista que opinen sobre el paquete TESCREAL.

RU Sirius: En tu libro Extinción Humana: Una Historia de la Ciencia y Ética de la Aniquilación, pasaste de escribir sobre amenazas existenciales como fenómenos históricos a varios tropos transhumanistas. Mientras lo leía, fue como si de pronto hubiéramos pasado de la ciencia y la geología a la ciencia ficción. Luego me preguntaba si existía la ciencia ficción en tiempos antiguos. (Supongo que estaban la Biblia y otros mitos). ¿Cómo llegaste a esto?

Émile Torres: A mediados de la década de 2000, me encontré con el transhumanismo por primera vez. Inicialmente, fui muy crítico al respecto. El segundo artículo que publiqué fue una crítica al transhumanismo. Pero luego, ciertas consideraciones me llevaron a considerar al transhumanismo como una posición defendible, y me convertí en una suerte de transhumanista.

Y, una de las consideraciones principales fue que el desarrollo de estas tecnologías es inevitable. Entonces, si estás en contra del transhumanismo, tal vez necesites oponerte al desarrollo de ciertas tecnologías de ingeniería personal. Pero dado que son inevitables, no tiene sentido oponerse a ellas sólo para frenar la marea. Por eso, lo mejor es unirse a los transhumanistas y hacer lo posible para asegurar que ese proyecto se realice de la manera más óptima.

La noción de riesgo existencial estuvo estrechamente vinculada al transhumanismo desde el principio: inicialmente, se definió el riesgo existencial como ‘cualquier cosa que pueda evitar que creemos una civilización posthumana’.

RUS: Estoy seguro de que se debe haber hablado del riesgo existencial antes en varios círculos intelectuales… ¿sobre la guerra nuclear y demás?

ÉT: Definitivamente se hablaba de extinción y catástrofe global. Pero lo novedoso acerca de esta idea de riesgo existencial, como lo indica la definición, es la idea de un desarrollo futuro deseable. 

Había personas, sobre todo en la segunda mitad del siglo XX, argumentando que una razón por la cual la extinción humana sería mala es que clausuraría la realización de todo progreso futuro, felicidad futura, y así sucesivamente. Pero ese argumento de potencial perdido nunca fue formalizado. El enfoque realmente estaba en extinguirse. Todos en la Tierra van a morir. Tú y yo vamos a morir. Nuestras familias morirán. Eso era lo más destacado. El potencial perdido no era lo central.

La noción de riesgo existencial, creo, invirtió eso y destacó el potencial perdido: el argumento central se convirtió en que el peor aspecto de la extinción humana es el potencial perdido. No son las 8 mil millones de personas que morirán. Eso es muy malo, pero la gravedad del potencial perdido tiene una magnitud mayor.

RUS: Puede que esté un poco desconectado de la cultura transhumanista… para mí, es una extraña iteración del transhumanismo. No es algo con lo que me encontrara mucho cuando interactuaba con ese mundo de 2007 a 2010 como editor de h+ magazine. En ese momento, principalmente escuchabas sobre la extensión de la vida y otras mejoras. O inmortalidad, si querías ir realmente lejos. La idea de niños con mentes mejoradas estaba presente, pero como algo muy especulativo. Pero la idea de sacrificar a casi todos por personas futuras imaginarias, como has discutido en tus textos sobre TESCREAL, no parecía estar muy difundida en ese entonces.

ÉT: Eso me parece correcto. Creo que esta noción de potencial es realmente central para el largoplacismo. La definición inicial viene del 2002, con Bostrom discutiendo las dinámicas de transición desde nuestra civilización humana hacia una civilización posthumana, destacando el potencial de convertirse en posthumano. Esto también estaba relacionado con la idea de que la creación de la posthumanidad no solo es valiosa porque es una buena manera de que se desarrolle la historia cósmica, sino también porque tú y yo podríamos beneficiarnos, ¿cierto?

Entonces, ¿por qué es importante crear una civilización posthumana (según Bostrom y personas como él)? Bueno, porque si sucede en mi vida, tal vez llegue a vivir para siempre. O incluso si sucede en tal vez mil años, todavía alcanzo a vivir para siempre porque me inscribiré en ALCOR y seré resucitado. Así que realmente veo este momento como una especie de giro hacia pensar en el futuro lejano. Creo que inicialmente, para los transhumanistas, estaba vinculado con su propio destino como individuos.

RUS: Estaba pensando que tal vez, por ejemplo, Eliezer Yudkowsky está siendo desinteresado cuando habla de arriesgar la guerra nuclear y sacrificar la mayor parte de la vida en el planeta para asegurarse de que la inteligencia artificial no ocurra antes de que él considere que estamos listos. Porque me parece que él podría tener al menos una probabilidad del 50:50 de ser víctima de la guerra nuclear que está dispuesto a arriesgar para evitar el desarrollo prematuro de la IA. Así que creo que está siendo desinteresado, le gusta tanto la idea de los futuros humanos felices que está dispuesto a sacrificarse a sí mismo.

ÉT: Mi interpretación de la historia es que realmente fue en la década del 2000 que las personas en esta comunidad se dieron cuenta de lo inmenso que podría ser el futuro. Con esa conciencia, se produjo un cambio correspondiente en el énfasis moral.

Yudkowsy quiere vivir para siempre. En el podcast de Lex Fridman, dijo que creció creyendo que viviría para siempre. Y parte del trauma para él, como mencionó en ese podcast, es estar en esta situación donde la AGI está tan cerca y tiene que enfrentarse a su propia mortalidad, tal vez por primera vez. Parece que su pensamiento ejemplifica este cambio a lo largo de la década de 2000.

RU: Para mí suena como si todo fuera fantasía. Algunas de estas cosas que has mencionado como parte de este paquete, como los teóricos billones de personas, incluidas las personas digitales, teniendo experiencias cuantificablemente grandiosas, suena como una lluvia de ideas de nerds drogados en una habitación universitaria que simplemente nunca terminaron. Siguen elaborando desde la premisa original, aislándose cada vez más de las experiencias del mundo real, día a día. Las ideas solían madurar; ahora simplemente parecen volverse más estrafalarias. No puedo demostrarlo, pero podría ser el resultado de la economía de la atención. Para parafrasear incorrectamente a Niels Bohr, “Tu idea es una locura, pero no es lo suficientemente loca como para ganar seguidores en las redes sociales”.

ÉT: En cuanto a la economía de la atención, tengo la impresión de que los largoplacistas reconocen que esta visión del futuro es un poco descabellada. Quiero decir, algunos de ellos han utilizado el término “Crazy Town” o “Pueblo Loco”. En consecuencia, creo que hacen todo lo posible por no mencionar públicamente cuáles son sus objetivos reales. Las ideas descabelladas captan la atención del público, pero en este caso, creo que sienten que algunas de estas ideas no son una buena estrategia de relaciones públicas.

¿Qué hay acerca de la IA útil?

Crédito: Tesfu Assefa

RUS: Con respecto a tu afirmación de que la actividad de la inteligencia artificial solo se puede explicar mediante esta configuración ideológica, no sé si te estás refiriendo a la IA práctica y útil, por ejemplo, para rastrear y responder a las condiciones meteorológicas, desarrollar vacunas y otras respuestas a pandemias, crear medicamentos, etc, o si te refieres sólo a la IA que realiza lo que consideramos tareas intelectuales o creativas.


ÉT: No creo que la IA en general esté motivada por esta ideología. La carrera hacia la AGI . Y creo que hay dos factores. Uno que es obvio es el motivo de lucro. Microsoft y Google esperan obtener miles de millones de dólares con estos grandes modelos de lenguaje. Pero creo que el otro componente crucial de la imagen explicativa es el TESCREALismo.

Es como… ¿Por qué se formó DeepMind en primer lugar? ¿Por qué Demis Hassabis, que estuvo en muchas de estas conferencias transhumanistas, la fundó? Y Shane Legg, que recibió $100,000 del Instituto Canadiense de Singularidad para la Inteligencia Artificial después de completar su tesis de doctorado y dio charlas en las conferencias Singularity Summit.

RUS: Si fuera a todas las salas de juntas en Silicon Valley y hablara con los propietarios y programadores, ¿crees que la mayoría de ellos abrazaría toda la filosofía de TESCREAL? Mi suposición es que tienden a ser transhumanistas, y muchos podrían ser singularitarianos, pero probablemente no estén tan interesados en el aspecto de ‘billones de personas futuras’ de ese proyecto. Digo, ¿realmente qué tan ubicuas son estas ideas?

ÉT: En cuanto a la ubicuidad de las creencias de TESCREAL, creo que tienes razón. Muchos ni siquiera usarían la palabra transhumanismo. Podrías preguntar, “¿Apoyarías la reingeniería del organismo humano?” O preguntar, “¿Estás financiando proyectos para intentar reingeniar el organismo humano para que podamos fusionar la inteligencia artificial en nuestros cerebros?”. Creo que muchos dirían que sí. Y estarían a favor de muchos aspectos de la cosmovisión largoplacista, como el imperativo de colonizar el espacio y saquear el cosmos. Mi fuerte sospecha es que eso es lo que estas personas asumen como algo normal.

Un artículo que quiero escribir trataría sobre los diferentes términos e ideas que varios autores utilizan para describir la cultura del Silicon Valley, utilizando términos diferentes, pero describiendo en última instancia el mismo fenómeno. Así que a lo que me refiero con TESCREALismo es lo que ese tipo de extrema derecha Richard Hanania llama “la derecha tecnológica”.

Un artículo del Huffington Post mencionaba que tiene opiniones supremacistas blancas. Y él dijo, “Odio la palabra TESCREALismo”. Así que lo llamó la ‘derecha tecnológica’. Douglas Rushkoff llama a esto ‘la mentalidad’; él dice que está en todas partes en Silicon Valley entre los multimillonarios de la tecnología, y al hablar con ellos sobre sus puntos de vista, descubrió que todos pensaban: “el futuro es digital. Vamos a mejorar nuestras mentes. Vamos a expandirnos por todo el espacio” y así. Lo que Rushkoff quiere decir con ‘la mentalidad’ es básicamente lo que yo entiendo por TESCREALismo. ¿Dirían estas personas que encarnan ‘la mentalidad’, “sí, soy un largoplacista y creo que lo más importante moralmente es conquistar el espacio y crear todas estas personas digitales en el futuro”? No lo sé. Pero su visión del mundo se parece mucho al largoplacismo.

RUS: ¿Crees que la falta de preocupación por las personas que viven actualmente, como una especie de manifestación política de la visión largoplacista, está llevando a algunas personas del Silicon Valley hacia el extremismo de derecha?

ÉT: Creo que eso es en gran medida correcto. Creo que algunas personas, como Wil Macaskill, [una figura en el ‘altruismo efectivo‘], realmente aceptan esta posición filosófica muy abstracta de que lo que importa es que haya un gran número de personas en el futuro. Y muchos multimillonarios de la tecnología ven esta visión como vinculada con su destino como individuos. Entonces, el razonamiento es como… “Quiero construir un búnker para sobrevivir al apocalipsis para poder llegar al espacio, tener mi mente digitalizada” y así. Y eso definitivamente puede llevar a esta falta de consideración por la mayoría de los seres humanos. Un ejemplo extremo de esto es la noticia que se difundió de que el hermano de Sam Bankman-Fried y otra persona en FTX habían discutido la posibilidad de comprar la nación insular de Nauru explícitamente para que los miembros del movimiento ‘altruismo efectivo’ pudieran sobrevivir a un evento apocalíptico que mataría hasta, como escribieron en el documento, el 99,9% de los seres humanos.

La Singularidad probablemente no está cerca

Crédito: Tesfu Assefa

RUS: Ben Goertzel dijo que debería preguntarte si crees que la Singularidad ocurrirá. Y si sucede, ¿ocurrirá en 2035 o 2050?

ÉT: Supongo que depende de lo que uno entienda por la Singularidad. Está la interpretación de la explosión de la inteligencia… está la idea de Kurzweil que tiene que ver simplemente con el ritmo del cambio.

RUS: Yo pienso en la Singularidad como el punto en el que las inteligencias artificiales se vuelven más inteligentes que nosotros, y más allá de eso, no se puede predecir nada. No puedes predecir quiénes seremos, o si estaremos presentes, o cómo será el mundo. El escritor de ciencia ficción Vernor Vinge fue la primera persona en sugerir esa idea de una Singularidad. Crearíamos inteligencias que se volverían tan incomprensibles para nosotros como nosotros lo somos para los gusanos.

ÉT: Simpatizo con esa perspectiva de la Singularidad. Simplemente no hay mucho que podamos decir más allá de eso. Soy muy escéptico acerca de la idea de la explosión de inteligencia. Y la idea del ritmo del cambio de Kurzweil parece estar en tensión directa y significativa con el hecho de que una catástrofe climática es casi inevitable a menos que haya alguna nueva tecnología que, a gran escala, elimine el dióxido de carbono de la atmósfera. 

RUS: Kurzweil muestra que la línea ascendente del desarrollo tecnológico humano sobrevivió dos guerras mundiales (de hecho, las guerras mundiales impulsaron el desarrollo tecnológico) y a Mao, Pol Pot y todo tipo de eventos terribles.

ÉT: Creo que el cambio climático es otra cosa.

RUS: Sí, estoy de acuerdo.

ÉT: Estamos hablando de la civilización global. ¿Va a sobrevivir? No lo sé. Quiero decir, hay legítimos climatólogos que no creen que lo hará a menos que se tomen medidas inmediatas para evitar un cambio climático catastrófico.

Recuerdo discutir, hace muchos años, con colegas en el campo del riesgo existencial, donde afirmaba que el cambio climático es un problema mucho más grande de lo que sospechaban. Ellos pensaban: “Inventaremos la IA. Y una vez que tengamos la IA, va a…”

RUS: Resolverá qué hacer, sí.

ÉT: Resolverá qué hacer. Pero, ¿cómo vamos a crear la IA en un mundo que simplemente se desmorona y se cae a pedazos? ¿Cómo vamos a organizar conferencias sobre IA cuando el clima es tan hostil que no se puede llegar allí?

RUS: Supongo que la pregunta se convierte en cuán radical es la intervención de las catástrofes climáticas en el futuro inmediato. La gente piensa que podrían lograr la IA general en los próximos 10-20 años aproximadamente. Y ya estamos lidiando con todo tipo de condiciones meteorológicas desagradables y muertes y destrucción. Pero a simple vista, la civilización occidental parece seguir adelante. La gente se sube a sus autos y va a la tienda. La comida sigue distribuyéndose.

Así que parece que seguimos adelante, y tal vez lo haremos durante 10 o 20 años. Si las personas que están desarrollando la IA general, la robótica relacionada, y demás, logran llegar al laboratorio y hacer su trabajo, conseguir comida, etc., entonces tal vez puedan lograr lo que esperan. Supongo que esa es la idea.

ÉT: Simplemente no es mi área de especialización. Pero tengo la impresión de que, en términos de los modelos de lenguaje grandes (LLM) que tenemos, no hay un camino evidente desde esos sistemas, como ChatGPT, hacia una IA general genuina o superinteligencia.

RUS: Mucha gente está diciendo que ChatGPT y similares no son la gran cosa. Michio Kaku, que tiende a ser generalmente un promotor tecnológico hiper optimista, lo llamó una grabadora glorificada.

ÉT: Creo que fue Gary Marcus quien se estaba riendo sobre el ascenso y la caída en prestigio, por así decirlo, de ChatGPT. Se convirtió en una línea de chiste durante un debate republicano.

RUS: Todo sucede tan rápido en estos días.

ÉT: Sí. Así que no creo que la Singularidad vaya a ocurrir, probablemente. Y apostaría a que no sucederá pronto, no sucederá en 2045 como predice Kurzweil.

¿Y qué hay de los transhumanistas humanos, los singularitarianos y los entusiastas de la inteligencia artificial?

RUS: Permíteme preguntarte sobre las diversas ideologías e ideales dentro del transhumanismo y sus derivados. Has mencionado a Ben Goertzel, el capitán del barco aquí en Mindplex, en varios lugares como teniendo un papel central en el ‘paquete’ debido a su búsqueda de largo tiempo de la AGI. Y sé que Ben es un humanista, y más o menos un liberal, o incluso mejor. Sé que no quiere explotar, esclavizar o eliminar a las personas actuales en la Tierra, sino que busca elevar a todos. Así que sé por experiencia que hay una gran variación filosófica dentro del transhumanismo.

Recuerdo cuando me pidieron que creara la revista para humanity+, tenía mis propias suposiciones basadas en experiencias anteriores con los Extropianos. Así que les confesé a estos tipos en una reunión, dije: “Tengo que decirles desde el principio que no soy libertario. Soy de izquierda con un toque libertario”. Y uno de los chicos dijo: “Sí, yo también”. Y el otro chico dijo: “Ni siquiera estoy seguro del toque libertario”.

En general, alrededor de esa época, alrededor de 2007, aprendí que muchas personas involucradas con esa organización transhumanista oficial se veían a sí mismas como liberales, más o menos liberales convencionales. Y hay mucha variación dentro de ese mundo.

ÉT: Reconozco y afirmo eso. La noción de TESCREALismo pretende captar la visión tecno-utópica que surgió de algunos de estos movimientos, y señalar los aspectos más negativos de eso. Creo que son los que se han vuelto más influyentes ahora. Entonces, alguien como el socialista democrático James Hughes, tuvo cierta influencia. Pero, en comparación con alguien como Bostrom, su influencia es menor. Y reconozco absolutamente que hay transhumanistas que son anti-libertarios. Algunos de ellos son mormones.

RUS: Sí… ¡los transhumanistas mormones! Son adorables. Creo que cuando personas como Peter Thiel y Elon Musk se vincularon a estas ideas, probablemente se convirtieron en los principales atractores del transhumanismo o las ideas de mejora humana asociadas con él. Más personas que estarían atraídas por sus ideologías se han unido, especialmente en la cultura del Silicon Valley. Estos monstruos aterradores de la clase dominante se convirtieron en la voz pública principal ampliamente disponible para ese tipo de opiniones. Luego tuvimos el movimiento neo reaccionario y el “dark enlightenment” o “iluminación oscura”. La mayoría de las personas que hablaban de eso tendían a abrazar los lugares comunes transhumanistas. Eso se convirtió en la “alt-right” y alimentó la propagación del extremismo de derecha.

Puedes ver cómo la idea de un futuro glorioso, erguirse fuerte y  alto y dispararte hacia el glorioso futuro, podría atraer a un cierto tipo de sensibilidad fascista.

ÉT: Esa es también mi impresión. Obviamente, hay una historia fascinante que involucra futurismo y fascismo. Tal vez tiende a atraer a cierto tipo de persona o se presta a ser interpretado o explotado por fascistas. El TESCREALismo captura ese aspecto.

¿Less Wrong es una secta? 

RUS: Recuerdo estar en una Conferencia sobre la Singularidad y ser abordado por alguien involucrado en Less Wrong. Y sentí algo parecido a ser abordado por una secta. Me pregunto si te has encontrado con algún comportamiento realmente sectario en tus estudios, como personas que se reúnen en comunidades y obtienen armas para defenderse, o adoran al líder y ese tipo de cosas.

ÉT: Definitivamente, hay ese aspecto de líder carismático en el racionalismo. Hay estos posts de Less Wrong que solo elogian a Yudkowsky. Recuerdo ver una lista de declaraciones de una o dos oraciones sobre Yudkowsky. Una de ellas decía algo así como “dentro de la glándula pineal de Eliezer Yudkowsky no hay un alma inmortal, sino otro cerebro”. “En la historia de los pensadores occidentales, hubo Platón, Immanuel Kant, Eliezer Yudkowsky”. (Risas) Alguien a quien no nombraré me dijo que la escena racional del Área de la Bahía es una secta apocalíptica en pleno crecimiento.

Creo que el EA (Altruismo Efectivo) es algo así como una secta. Hubo un artículo publicado recientemente por Carla Cremer. Habló sobre un sistema de clasificación competitivo secreto en el que a los participantes se les restan puntos si tienen un coeficiente intelectual menor de 120.

RUS: ¡Oh! Estaba pensando en preguntarle a las personas involucradas en el transhumanismo si incluso creen que el coeficiente intelectual es una medida legítima de la inteligencia.

ÉT: Me gustaría saber realmente. Porque creo que el realismo del CI es bastante común dentro de esta comunidad. Bostrom ha escrito que el CI es bueno pero imperfecto. Así que tienden hacia el realismo del CI.

¿Alguien se llama a sí mismo un TESCREALista?

RU: Notaste que Marc Andreessen se ha identificado con este conjunto que co-creaste. ¿Hay otros que hayan adoptado directamente el término como una identidad positiva que tú sepas?

ÉT: No, en realidad no. Hanania lo reconoce al argumentar que el ‘tech right’ es un término mejor. Dijo que básicamente teníamos razón acerca de cuáles son las corrientes, qué es el conjunto, pero ‘tech right’ es un término mejor. No me sorprende que no haya más personas que salgan y digan que se identifican como TESCREAListas.

RUS: Tal vez después de que esto se publique en Mindplex, habrá un montón de personas que decidan que eso es lo que son. ¡Oh, querido! ¿Qué hemos causado?

Eugenesia

Crédito: Tesfu Assefa

RUS: Permíteme abordar un tema delicado: la eugenesia. ¿Qué piensas sobre intervenir en la línea germinal para prevenir enfermedades horribles y cosas por el estilo? ¿Crees que puede haber un uso legítimo para ese tipo de intervención?

ÉT: Sí, creo que podría ser permisible bajo ciertas circunstancias. Quiero decir, tengo preocupaciones sobre los límites de para qué se utilizará esa tecnología. ¿Se utilizará solo para lo que intuitivamente llamaríamos fines terapéuticos? Mi principal preocupación es que podría abrir fácilmente la puerta a un enfoque de ‘mejora’. Tan pronto como hablas de mejoras, surgen preguntas como “¿Qué criterios estás utilizando para juzgar si alguna modificación es mejor?” Ahí es donde surge el problema de las ‘superclases’ sobre el cual Bostrom ha escrito.

Gran parte de eso probablemente sea ableista. Lo que significa ‘mejora’ para alguien como Bostrom podría ser completamente diferente a lo que yo podría pensar, ¿verdad?

RUS: Debo confesar que tuve una reacción instintiva la primera vez que escuché el término “ableismo”. Las personas deberían ser capaces. En general, deberíamos estar a favor de las habilidades y no llegar a un punto en el que las personas estén adorando sus partes defectuosas, por así decirlo. Al mismo tiempo, las personas deberían tener el derecho de elegir cómo quieren ser. Pero me siento incómodo con la idea de que las personas quieran mantener lo que la mayoría consideraría una especie de imperfección. Y me pregunto: ¿dónde está la línea para eso?

ÉT: Mi impresión es que palabras como ‘roto’ son términos normativos. Creo que los activistas de derechos de las personas con discapacidades o académicos en el campo de las discapacidades tienen razón cuando dicen: “hay un número infinito de cosas que no puedo hacer”. No puedo volar. La noción de discapacidad, algunos argumentarían, es simplemente una construcción social. Vivimos en una sociedad que no se adapta para alguien que no puede hacer algo que una mayoría estadística de otras personas puede hacer. Eso es lo que se considera una ‘discapacidad’. Entonces, tal vez, si arreglas la sociedad, la discapacidad desaparece incluso si la incapacidad permanece.

RUS: ¿Cómo piensas acerca de los problemas físicos que dificultan la vida de un individuo o de las personas que lo rodean?

ÉT: Hay dos aspectos en eso. Uno es la incapacidad y el otro es la sociedad en la que se vive. Entonces, puedes solucionar o eliminar la discapacidad mejorando la sociedad. Y luego hay un buen argumento de que muchas de las incapacidades que clasificamos como discapacidades no se verían como algo malo. Es simplemente diferente. Hay personas de diferentes alturas. Hay personas que no pueden caminar. Siento que mi corazón se llena de empatía por los académicos de la discapacidad, algunos de los cuales son discapacitados, argumentando que no querrían cambiar. Y su punto de vista de que no deberíamos aspirar a un mundo en el que personas como ellos dejen de existir.

Techno Gloom

RUS: ¿Debemos preocuparnos por las formas extremas de negativismo tecnológico? Por ejemplo, una persona que no puede caminar por sí misma dependerá de la tecnología para desplazarse y probablemente esperará una tecnología aún mejor. Y ahora hay una clara tendencia hacia un extremo negativismo tecnológico, provocado en parte por personas como los TESCREAListas que estás sacando a la luz. Me pregunto si te preocupa que pueda haber una reacción exagerada, una especie de movimiento reaccionario tecnológico que realmente sea perjudicial.

ÉT: No tanto porque no he visto mucha evidencia, al menos no en mi alimentación de redes sociales.

RUS: No vives cerca de San Francisco…

ÉT: Simplificando, muchas personas en mi círculo están a favor de la buena tecnología, no de la mala tecnología. Tal vez tecnologías a pequeña escala, lo cual no significa baja tecnología. Así que puedes tener tecnologías avanzadas que permitirían que alguien se desplace si no puede caminar. Pero sin las megacorporaciones, y todo el control y riesgo que conlleva eso.

About the Translator

Ines Gav

9.42274 MPXR

Reader and writer. Trying to grasp some sense by putting one word after the other. That's what writing is all about. Nothing else.

Comment on this content

0 Comments

0 thoughts on “TESCREALismo ¿Se ha ido la clase gobernante de Silicon Valley a “Crazy Town”? Émile Torres en conversación con R.U. Sirius

Related Articles

Like

Dislike

Share

Comments
Reactions
💯 💘 😍 🎉 👏
🟨 😴 😡 🤮 💩

Here is where you pick your favorite article of the month. An article that collected the highest number of picks is dubbed "People's Choice". Our editors have their pick, and so do you. Read some of our other articles before you decide and click this button; you can only select one article every month.

People's Choice
Bookmarks