Nueva Roma, IA y la Tecnosofía
Una SIMULTANEIDAD PARADÓJICA
En 1991, cuando El Indio Solari escribía “Nueva Roma” para el álbum La Mosca y la Sopa, plasmaba una intuición que se vuelve relevanteante el advenimiento de la Inteligencia Artificial:
“¡Nueva Roma! ¡Te cura o te mata!”
Lo que parece una advertencia ambigua, es una simultaneidad paradójica: el mismo sistema que promete sanarnos amenaza destruirnos. Y no podemos elegir uno u otro, porque son la misma cosa.
Esta inquietud resuena profundamente en filosofo Andrea Colamedechi, autor de Hipnocracia, cuando reflexiona sobre cómo la IA se presenta en nuestras vidas. Pero para entender esta paradoja moderna, necesitamos viajar 2.400 años hacia atrás, a Platón.
En el Fedro de Platón, Sócrates relata la leyenda de Theuth, dios inventor. Theuth presenta la escritura al rey Thamus como un pharmakon para la memoria. La palabra griega es deliberadamente ambigua: significa simultáneamente remedio y veneno.
Como remedio, la escritura promete fortalecer la memoria al fijarla externamente, haciendo el conocimiento más accesible y duradero. Pero como veneno, Platón teme que reemplace la memoria viva, debilitando la capacidad de pensar críticamente y de relacionarnos dialógicamente con la verdad.
Lo crucial: Platón no puede purificar uno de estos efectos. No puede tener la escritura sin ambos.
La Indecidibilidad Derridiana
Casi 2.400 años después, Jacques Derrida rescata este concepto en su ensayo La farmacología de Platón (1972) y le da un giro filosófico decisivo. Derrida no ve en el pharmakon una simple ambigüedad léxica (dos significados posibles), sino una indecidibilidad estructural.
Esto significa que:
- No es que signifique “a veces veneno, a veces cura”, dependiendo del contexto
- La distinción misma entre cura y veneno es inestable
- La cualidad que lo hace útil es precisamente la que lo hace peligroso
- Intentar “purificarlo” (eliminar su aspecto veneno) es ontológicamente imposible
La lógica binaria se quiebra. No puedes decidir definitivamente si es bueno o malo porque la misma característica que lo cura lo envenena y su efecto depende del contexto, la dosis, del cuerpo que lo recibe. El pharmakon es una categoría que resiste la clasificación binaria.
La escritura anticipó a la IA
Aquí está la conexión crucial: la Inteligencia Artificial hereda exactamente la estructura que Platón identificó en la escritura.
Como la escritura, la IA es un suplemento: algo que promete mejorar una capacidad humana (en este caso, nuestra inteligencia cognitiva) al externalizarla en una máquina. Y como todos los suplementos, introduce simultáneamente tanto liberación como dependencia.
Una racional definición de IA
Antes de hablar de cura y veneno, conviene ser claros sobre qué estamos tratando. La inteligencia artificial, en su forma actual, es mejor describirla como una tecnología que reconoce patrones y predice resultados. Nada más. Y nada menos importante: carece radicalmente de significado, sensibilidad y sabiduría. La IA es inteligencia sin sabiduría, procesamiento sin comprensión, poder técnico sin juicio.
La IA Como Pharmakon Existencial
- Como remedio: la IA nos ofrece soluciones extraordinarias. Diagnosticar enfermedades, optimizar procesos, amplificar capacidades creativas, resolver problemas complejos. Es genuinamente curativa en muchos aspectos.
- Como veneno: la IA introduce vigilancia estructural, dependencia cognitiva, extractivismo de datos, automatización de la toma de decisiones que afecta vidas humanas, concentración de poder. Es genuinamente peligrosa.
No podemos rechazarla. No se trata de una herramienta que podamos dejar de lado. La IA ha dejado día a día deja de ser un objeto externo para ir convirtiéndose en nuestro mundo-ambiente, el medio existencial del cual ya somos dependientes y del que lo seremos aún más.
Como dice el estribillo de Nueva Roma: “¡Nueva Roma ya está!” No es una amenaza futura. Es presente.
¿Cómo habitamos esta nueva realidad?
Si seguimos a Derrida y a los Redonditos, la resistencia entendida como un “no” absoluto o como una desconexión total resulta imposible. No porque nos falte voluntad, sino por una razón estructural: la IA ya está integrada en nuestro mundo. Esto es lo que la canción capta perfectamente: estamos atrapados dentro del pharmakon. No hay escape hacia una “pureza” previa a la tecnología. No hay un “afuera” limpio. ¡Nueva Roma ya está!
La indecidibilidad no es solo semántica (qué significa una palabra). Es política: vivimos en un sistema que simultáneamente nos cura y nos mata, y no podemos elegir salir de él sin renunciar a la cura misma.
La Lección de Carl Sagan
Es aquí donde entra Carl Sagan con su advertencia profética:
“Si continuamos acumulando solo poder y no sabiduría, seguramente nos destruiremos a nosotros mismos”
La brecha entre inteligencia técnica (la capacidad de procesamiento de la IA) e inteligencia sabia (la capacidad humana de juicio orientado al bien común) se vuelve abismal. Tenemos máquinas que pueden hacer casi cualquier cosa, pero sin la sabiduría para discernir si deberían hacerla.
¿Cómo gestionar esta ambigüedad? ¿Cómo vivir dentro de un pharmakon sin ser consumidos por él?
La respuesta no es técnica. Es cultural, sapiencial, filosófica y política.
Más allá de la Ética del buen uso. Tecnosofía
Resulta necesario crear espacios de pensamiento y reflexión donde la distinción crítica entre inteligencia (entendida como capacidad técnica de procesamiento) y sabiduría (entendida como capacidad de juicio humano orientado al bien común) abra la posibilidad de una Tecnosofía.
¿Qué es la Tecnosofía? No es una técnica. No es un protocolo. Es una facultad: la capacidad humana de dosificar el pharmakon.
Mientras que la tecnología (la IA) es la sustancia ambivalente que cura y envenena simultáneamente, la tecnosofía es la lucidez necesaria para gestionar esa intoxicación. No para eliminarla (imposible), sino para habitarla con deliberación.
Esto implica, en primer lugar, recuperar la “potencia de no”: la capacidad específicamente humana de decidir meditadamente cuándo no hacer aquello que técnicamente somos capaces de hacer o sabemos que no debemos exponer. Es reconocer que la sabiduría es una facultad humana vinculada a la experiencia corporeizada, emocional y situacional que no puede ni debe ser delegada en máquinas; se trata de un discernimiento necesario.
Tecnosofía y Revisión del Concepto de Innovación
Esto tendría consecuencias radicales para cómo entendemos la innovación técnica.
Actualmente, la innovación sigue un “código técnico capitalista y competitivo” que prioriza la ventaja estratégica sobre la seguridad, la velocidad sobre la prudencia, el lucro sobre el bien común. Cada innovación se justifica por su posibilidad técnica: “podemos hacerlo, entonces deberías”.
La Tecnosofía invierte esta lógica. Pone la inventiva tecnológica al servicio del bien común, en lugar de tratarla exclusivamente como una mercancía. Esto es una “ética sabia”: una ética que recupera la capacidad de decir “no” a lo que es técnicamente posible pero humanamente indeseable.
De lo individual a lo sistémico. El Nuevo Renacimiento de Coeckelbergh
Mark Coeckelbergh propone que la respuesta a los riesgos de la IA no es solo técnica, sino profundamente cultural. Exige lo que llama un “Nuevo Renacimiento” y una “Nueva Ilustración”: períodos históricos donde la cultura integró la ciencia, el arte, la filosofía y la reflexión ética como componentes inseparables del pensamiento y la acción.
¿Por qué Coeckelbergh aquí? Porque la Tecnosofía no es un asunto individual ni de “buen uso personal”. Requiere una transformación cultural radical. Bajo el marco de la Tecnosofía, cada innovación debería ser filtrada por una cultura radicalmente interdisciplinar, donde:
- Las artes no sean “adorno” sino pilares del diseño técnico
- La filosofía no sea una reflexión posterior sino una guía en la creación
- Las ciencias sociales no sean “aplicadas al final” sino integradas desde el inicio
De la Ética Individual a la Sistémica: Una Construcción Progresiva
La ética individual es fundamental. No podemos esperar que sistemas lejanos y corporaciones sin rostro cambien de intención. La construcción de una ética del uso de la IA debe comenzar donde comienzan todas las transformaciones culturales: en las decisiones cotidianas de las personas.
Debe construirse una ética del uso responsable de la IA, no como una alternativa a la ética sistémica, sino como su fundamento.
La política ha sido ineficaz regulando lo que el mercado de este milenio impone. Las redes sociales son una clara muestra. Salvo que seas un estado con fuertes regulaciones, las corporaciones tecnocráticas operan con libertad casi absoluta.
Esto significa que mientras esperamos la gobernanza participativa y la responsabilidad corporativa real (objetivos necesarios pero lejanos), la ética individual opera ahora, en el presente. Cada decisión sobre cómo usar IA, cada rechazo a delegar juicio a máquinas, cada elección de conectar humanamente en lugar de tercerizar esa conexión en algoritmos, es un acto político.
No se trata de que “tú uses ChatGPT responsablemente” como si fuera un asunto puramente personal. Se trata de reconocer que tus elecciones, multiplicadas por millones de personas con la misma conciencia, generan presión cultural que eventualmente presiona a la política y al diseño sistémico.
El objetivo sistémico sigue siendo necesario: que los productos creados y desplegados con IA estén diseñados desde su arquitectura para servir al bien común. Esto requiere:
- Defensas en profundidad: múltiples niveles de protección, no una única solución
- Responsabilidad corporativa real: no solo cumplimiento regulatorio, sino transformación misional
- Participación ciudadana: incluir voces afectadas en el diseño de sistemas
La Tecnosofía, como una práctica cotidiana de discernimiento, comienza en cada persona diciendo “no” a lo que es técnicamente posible pero humanamente indeseable y así se propaga culturalmente.
Contra el Extractivismo Subjetivo
La IA, en su forma actual, funciona como un instrumento de lo que podríamos llamar “extractivismo subjetivo”: extrae datos de nuestras subjetividades, nuestros deseos, nuestras atenciones, nuestras relaciones, para procesarlos como materia prima de valor económico.
La vigilancia no es solo política (aunque lo es). Es ontológica: se ha incrustado en la textura misma de nuestras interacciones.
Rescatar un humanismo digital constructivo significa transformar la IA de instrumento de extractivismo en una verdadera tecnología de comunicación que ayude a reconstruir un sensus communis (sentido común): un mundo compartido donde la inteligencia técnica esté al servicio de la sabiduría colectiva.
Pero esto requiere advertir que una sabiduría real debe ser más inclusiva que la que hemos heredado. No puede ser solo occidental, solo masculina, solo urbana, solo de los que tienen acceso.
La Tecnosofía debe incluir sabidurías indígenas, sabidurías corporeizadas, sabidurías de quienes han sido marginados por la tecnología capitalista. Porque el extractivismo subjetivo afecta desproporcionadamente a los más vulnerables.
Síntesis. La Fórmula Final
Volvemos a Nueva Roma: “¡Te cura o te mata!”
La Tecnosofía es la respuesta a esta paradoja sin ser una negación de ella. No pretende “resolver” la ambigüedad del pharmakon (eso es imposible). Pretende habitarla con lucidez.
La Tecnosofía es la facultad humana de dosificar el Fármaco.
Mientras que la tecnología (la IA) es la sustancia ambivalente que cura y envenena simultáneamente, la tecnosofía se constituye como:
- La lucidez para reconocer esta ambigüedad sin negacionismo
- La potencia de no para frenar lo técnicamente posible cuando sea humanamente indeseable
- La sabiduría situacional para contextualizar cada decisión tecnológica
- La responsabilidad colectiva para que el bien común guíe la innovación
La Pregunta que Permanece
Esto no resuelve la trampa existencial. Sabemos que la IA está aquí, que ya somos dependientes, que no hay escape. La Tecnosofía no promete salida. Promete una forma diferente de estar dentro.
Es la capacidad de vivir en la “Nueva Roma”, sabiendo que te cura y te mata, pero decidiendo deliberadamente cómo y cuándo, y junto a quién.
Porque la sabiduría, a diferencia de la inteligencia técnica, es siempre compartida. Siempre situada. Siempre corporeizada.
Y eso, todavía, es humano.
por Maxi Gorski
Obras de Referencia
- Sitio web: Colamedici, A. (s.f.). Andrea Colamedici — Filósofo, editor, escritor. Recuperado el 16 de abril de 2026, de https://andreacolamedici.com/es/
- Arendt, Hannah: Sus nociones sobre el “mundo común”, el “sentido común” (sensus communis) y la “verdad fáctica” como bases de la democracia son recuperadas para analizar la crisis epistémica actual.
- Coeckelbergh, Mark:
- Ética de la Inteligencia Artificial (2021). Aborda la distinción entre transhumanismo y posthumanismo, y la necesidad de sabiduría pragmática.
- Por qué la IA debilita la democracia y qué hacer al respecto (2024). Introduce la metáfora de la “cibernética platónica” y los riesgos de la IA para la autonomía y la igualdad.
- Costa, Flavia:
- Tecnoceno. Algoritmos, biohackers y nuevas formas de vida (2021). Conceptualiza el Tecnoceno y analiza las huellas materiales de la tecnología en la Tierra.
- “Desafíos de la Inteligencia Artificial generativa. Tres escalas y dos enfoques transversales” (2023). Define a la IA como “mundoambiente” y “sociedad artificial”.
- Crawford, Kate: Atlas de Inteligencia Artificial. Poder, política y costos planetarios (2022). Desarrolla la idea de la IA como industria extractiva que está “terraformando” el planeta y advierte sobre el sesgo del efecto “Clever Hans”.
- Hendrycks, Dan: Introducción a la seguridad de la IA, ética y sociedad (2023). Analiza el riesgo del “debilitamiento humano” por dependencia excesiva de la tecnología.
- Krämer, Sybille: “Artificial Intelligence as a cultural technique” (2023). Describe el uso de la IA como “máquinas forenses” para la producción de conocimiento humano.
- Pasquinelli, Matteo y Joler, Vladan: “El Nooscopio de manifiesto: La inteligencia artificial como instrumento de extractivismo del conocimiento” (2021). Critica la IA como un instrumento de colonialismo epistémico.
- Ricaurte Quijano, Paola: Conceptualiza los “ensamblajes algorítmicos” como sistemas epistémicos que ordenan el mundo y reproducen violencias coloniales y patriarcales.
- Rouvroy, Antoinette y Berns, Thomas: “Gubernamentalidad algorítmica y perspectivas de emancipación” (2016). Definen la gubernamentalidad algorítmica como una forma de poder que actúa sobre las conductas sorteando la conciencia del sujeto.