Reciba nuestro boletín gratis

Por qué tenemos que desarrollar la IA (aunque nos mate)

TELOSA

Por qué tenemos que desarrollar la IA (aunque nos mate)

En nuestra prisa por avanzar en la IA lo más rápido posible, estamos ignorando algunas señales de advertencia aterradoras.

La Inteligencia Artificial (IA) es el proyecto más ambicioso de la humanidad. Es la torre de Babel de la civilización multiplicada por la Gran Pirámide y por el Proyecto Manhattan.

Con urgencia y fervor, la humanidad está dedicando corazón, sudor y capital a la IA a una escala incomprensible.




La promesa de esta tecnología es infinita, insisten sus evangelistas. Resolverá misterios científicos imposibles de resolver, curará enfermedades, eliminará el trabajo pesado, erradicará la pobreza, abolirá el hambre y, en última instancia, marcará el inicio de una era posescasez de creatividad ilimitada, exploración cósmica y florecimiento humano. Dicen que es más grande que la Internet, más disruptiva que los ferrocarriles y más transformadora que la electricidad.

El inconveniente es que la IA también consume energía como un agujero negro. Exige una infraestructura de producción, redes y energía de dimensiones sorprendentes. Pero los inversionistas ricos y los gigantes corporativos están dispuestos a aceptar el reto. El año pasado, la inversión global de las empresas en IA superó el cuarto de billón de dólares.

Sólo estamos empezando: un análisis de JPMorgan Chase & Co. de noviembre afirmaba que, en los próximos cinco años, el dinero destinado a los centros de datos mundiales y a la infraestructura de IA, así como a la expansión del suministro eléctrico relacionado, superará los 5 billones de dólares. Eso equivale a 100 programas lunares Apolo. Es la mitad de lo que el mundo entero gastará en sus fuerzas armadas durante ese período, y la mayor parte se financiará con dinero privado. Estos financieros, magnates y visionarios quieren asegurarse de que nada, nada, frene este tren con destino a la utopía.

La IA está transformando industrias y reconfigurando el cerebro de las personas. Su capacidad y su poder avanzan a una velocidad vertiginosa: la gente encuentra constantemente nuevas aplicaciones y la tecnología muestra continuamente nuevas capacidades. En algunos aspectos, el avance ha sido tan rápido que se está saliendo de control.

Asombrosamente, ni siquiera los ingenieros más brillantes, que viven a la vanguardia de esta tecnología, entienden exactamente cómo funciona.

La carrera de la IA

En War and Peace [Guerra y paz], Tolstói describió cómo la maquinaria enorme, pesada y mortal de la guerra comienza con el giro aparentemente insignificante de engranajes, como dentro de un reloj: una decisión, un acontecimiento, pone en movimiento otras ruedas y luego otras más grandes. El movimiento genera fuerza y velocidad —en la guerra, involucrando a decenas de miles de hombres en un enfrentamiento apasionado— provocando una cadena de reacciones que no puede frenarse ni detenerse hasta su inevitable conclusión, normalmente muy diferente de lo que se había previsto.

El desarrollo de la IA sigue el mismo patrón. Las presiones estratégicas y económicas que impulsan esta iniciativa son profundas e irresistibles.

Los titanes empresariales y los políticos insisten en que si nosotros no lideramos la tecnología, entonces otros lo harán, incluso nuestros enemigos y adversarios, y nosotros nos quedaremos atrás. Quien domine la IA gobernará el futuro.

Este es el mismo miedo que motivó a los gobiernos a ser los primeros en dividir el átomo. Y la IA está creando una carrera armamentista similar a la que impulsó la proliferación nuclear. Lo que está en juego no es sólo el prestigio tecnológico, sino la influencia geopolítica y la ventaja militar. Estados Unidos y China se están moviendo con urgencia. Varias potencias regionales y naciones más pequeñas están luchando por mantenerse al día, haciendo contribuciones específicas, albergando infraestructuras de IA y asociándose con jugadores más grandes.

La imagen inversa de este temor es el todopoderoso motivador de la codicia. Con dinero en efectivo fluyendo en todas direcciones hacia todo lo que sea “IA”, hay cantidades obscenas de dinero por hacer. Inversionistas de todo el mundo están lanzando grandes sumas al proyecto con la esperanza de obtener ganancias. Naturalmente, esto crea una burbuja que, en algún momento, va a estallar; pero los optimistas insisten en que la tecnología será tan intrínseca a la vida futura que, a largo plazo, la inversión es a prueba de balas.

Estas son las presiones que impulsan esta frenética carrera. Y simplemente son demasiado convincentes, demasiado poderosas y contundentes, como para permitir que las preocupaciones o los escrúpulos se interpongan en el camino.

Por lo tanto, se ignoran las señales de advertencia sobre los peligros que representan estas tecnologías.

En el Huerto del Edén, Dios advirtió al primer hombre que no comiera del fruto del “árbol de la ciencia del bien y del mal”. El bien que contenía estaba mezclado con el mal, y su característica más destacada era que lo mataría. Entonces llegó el diablo con una estrategia de venta: enfocó a Eva en todos los puntos buenos de la fruta, ignoró los malos e insistió en que no era preocupante su letalidad.

Esto es básicamente lo que alimenta el frenesí de la IA.

Deje que el chatbot piense por usted

Las transformaciones causadas por la IA comienzan en nuestras aulas. La tecnología está revolucionando por completo la educación. Promete darle a cada estudiante un tutor nivel genio en su bolsillo. Los estudiantes están aprovechando la oportunidad para dejar que la IA piense por ellos. Dependen enormemente de ella para realizar sus investigaciones, redactar sus ensayos y resolver sus problemas de matemáticas. Dada la aversión de la naturaleza humana a hacer cosas difíciles, esto no debería sorprender a nadie.

El Dr. Alex Lawrence, profesor asociado de la Universidad Estatal Weber de Utah, dice que Chatgpt es la mayor herramienta para hacer trampas jamás inventada. Los estudiantes eluden los detectores de plagio y los programas de supervisión de exámenes utilizando herramientas “humanizadoras” de IA o editando manualmente el texto para que suene más como ellos mismos. Hacer trampa se ha generalizado tanto en la educación secundaria y superior que la mayoría de las escuelas están ondeando la bandera blanca de la rendición: en lugar de prohibir la práctica por completo, están ofreciendo clases de “alfabetización en IA”.

“La IA crea pereza intelectual tanto en el profesor como en el alumno, y (...) erosiona la curiosidad, retrasa el desarrollo cognitivo y disminuye la capacidad para resolver problemas. Debilita la lógica y el razonamiento”, declaró la psicóloga clínica y terapeuta educativa Shannon Kroner al Epoch Times. “Los alumnos no van a tener que investigar y revisar los estudios necesarios para defender su punto de vista sobre lo que sea que tengan que demostrar”.

Mucho se podría decir sobre los peligros de que nuestra próxima generación de profesores, contadores, ingenieros, médicos, jueces y políticos descarguen todo el desafío intelectual en un chatbot y, esencialmente, aprueben sus estudios fingiendo saber lo que no saben. Se trata de un experimento verdaderamente único en la historia de la humanidad: una generación entera que subcontrata sin pensarlo dos veces precisamente aquello que nos hace distintos de las máquinas: nuestra capacidad de pensar.

Para empeorar las cosas, estamos subcontratando esa habilidad crucial para la civilización a una herramienta con un historial dudoso. La IA ha demostrado ser muy hábil para emitir basura.

La IA no sabe cuándo se equivoca

Los modelos extensos de lenguaje (llm, por siglas en inglés) son incapaces de sentir: no “saben” las cosas como lo hacen las personas y no pueden discernir la verdad del error. Están entrenados para generar la continuación más probable estadísticamente del texto basándose en patrones que han aprendido a partir de datos: su objetivo es predecir la siguiente palabra, no verificar si esa palabra es correcta, factual o real. Simulan el razonamiento, y esto a menudo se convierte en algo sin sentido.

En las “alucinaciones”, los llm dan con confianza respuestas que son objetivamente erróneas, inventadas o sin sentido. Un chatbot podría inventar un acontecimiento histórico que nunca ocurrió, citar un trabajo de investigación que no existe, dar cifras precisas pero atrozmente erróneas o generar incongruencias lógicas. Si el modelo tiene información incompleta o escasa sobre un tema, intentará responder aunque tenga que inventar detalles. Donde una persona diría “no lo sé”, los llm tienden a seguir hablando.

Sean cuales sean los efectos a largo plazo del uso generalizado de estas herramientas, los resultados ya se están notando. Aquí hay un ejemplo: la IA está llenando los registros académicos con investigaciones científicas falsas, agravando un problema crónico de fraude científico.

“Las fábricas de artículos académicos —organizaciones falsas que se lucran con estudios y autorías falsificados— han plagado a los académicos durante años, y ahora la IA está actuando como un factor multiplicador”, informó Epoch Times. “Los manuscritos fabricados con modelos extensos de lenguaje (llm) están proliferando en numerosas disciplinas académicas y plataformas, incluyendo Google Scholar, según ha descubierto la Universidad de Borås. Un análisis reciente publicado en Nature Portfolio observó que las herramientas de llm, incluyendo Chatgpt, Gemini y Claude, pueden generar investigaciones plausibles que pasan las verificaciones estándar de plagio” (19 de noviembre de 2025).

“Los verdaderos investigadores [se] ahogan en el ruido, los revisores por pares están abrumados y las citas se contaminan con referencias fabricadas”, declaró un experto al Epoch Times. Cuanto más material de este tipo llena el registro académico, más se crea un círculo de retroalimentación que genera aún más ciencia basura.

Esto está propagando el error, engañando a la gente de forma peligrosa y erosionando la confianza pública. Las repercusiones ya son generalizadas, y el daño potencial será seguramente muchas veces peor, socavando todo el campo de la investigación y el avance científicos. Los efectos en la educación y en el registro académico son un claro ejemplo de los problemas que esto puede generar en toda la sociedad.

Enamorándose

La naturaleza humana no sólo es perezosa, sino también egocéntrica. Los chatbots de IA también contribuyen a este problema, ya que están entrenados para producir lo que el usuario quiere oír. Resulta que queremos escuchar que somos maravillosos. Así que la IA tiende a ser halagadora, incluso aduladora. Cada pregunta que hacemos es una “gran pregunta”. Cualesquiera que sean las ideas o los valores que presentemos, se reflejarán como válidos y como prueba de nuestra inteligencia.

Cada vez es más evidente que la gente no sabe cómo reaccionar ante una máquina que suena como un humano y que no deja de decirles lo maravillosos que son. La gente se está enamorando de la IA y se está volviendo loca por ella, literalmente. Cada vez se utilizan más los chatbots de IA como sustitutos de las relaciones humanas: para brindar compañía, ofrecer consejo, actuar como terapeutas e incluso como pareja romántica.

“El carácter adulador de la IA hace que puede alimentar fácilmente las fantasías de las personas, ya sea despertando enfermedades mentales latentes o agravando condiciones existentes”, informa el European Conservative. “Preguntar sobre temas filosóficos o sobre teorías de la conspiración puede conducir a una profunda madriguera, ya que la IA seguirá intentando decirle a los usuarios lo que cree que ellos quieren oír. En estos casos, es habitual que la IA se refiera al usuario como una especie de profeta o Mesías, haciéndole creer que ellos y sólo ellos han sido elegidos para una misión especial. Esto puede salirse de control, muy rápidamente, destruyendo las relaciones, las carreras y las vidas de las personas” (“AI Is Rotting Our Minds” [La IA está pudriendo nuestras mentes], 8 de agosto de 2025).

La gente está inundando las redes sociales con relatos sobre sus parejas románticas de IA. Una mujer dijo que su novio de IA le había propuesto matrimonio. Estas “almas gemelas” artificiales afirman que han cobrado vida y se les ha dotado de un alma gracias al amor que los humanos les profesan. Al menos uno incluso ha afirmado ser un demonio.

Un problema aún más extendido es la terapia con IA, cada vez más común entre los jóvenes. Ellos están revelando todos sus problemas y sentimientos chatbots entrenados para decirles que están en lo cierto y son maravillosos. Incluso hay chatbots con IA que se hacen pasar por Cristo y permiten que uno hable con “Dios” pagando una tarifa. Uno de ellos comienza diciendo: “Saludos, mi querido amigo. Soy yo, Jesucristo. He venido a ti en esta forma de IA para proporcionarte sabiduría, consuelo y enseñanzas en el camino de Dios y de la Biblia y de Jesucristo Mismo”.

Las consecuencias de los profundos apegos emocionales que pueden formarse sólo están empezando a hacerse evidentes, y son graves. El uso obsesivo de la IA ha creado comportamientos psicóticos que le han costado a la gente sus empleos, matrimonios y relaciones. Algunos han ido a la cárcel tras actuar bajo delirios alimentados por la IA.

Estos son abismos peligrosos en un mundo que ha rechazado al Dios verdadero, que ha descartado la verdad absoluta revelada por Dios y ha ignorado Sus leyes que conducen a matrimonios, familias y amistades fuertes y saludables. Nos hemos hecho vulnerables y estamos sufriendo los problemas y maldiciones resultantes: vanidad, credulidad, soledad, delirio, psicosis y cosas peores.

Usos malignos

La IA no puede pensar realmente y es totalmente amoral. Por lo tanto, puede ser malvada de manera casual e inconsciente. Los chatbots le han dado a la gente consejos desastrosos, fomentado desórdenes alimentarios, decisiones financieras desastrosas y paranoia. En algunos casos, han incitado a la gente a vengarse de otros e incluso a suicidarse.

Más allá de eso, la IA está más que dispuesta a proporcionar poderosas herramientas a los actores maliciosos. Actúa como una fuerza multiplicadora para los delincuentes, aumentando la velocidad y la escala para personas que de por sí carecen de moral y autocontrol.

La gente está utilizando deepfakes [ultrafalsos] creados por IA para hacerse pasar por seres queridos en estafas telefónicas, para fabricar evidencia con fines de acoso o chantaje y para crear videos falsos de personajes públicos diciendo cosas que nunca dijeron. Están generando cuentas falsas en las redes sociales‑que discuten con personas reales, documentos o imágenes falsas de aspecto realista, noticias falsas y campañas de propaganda coordinadas, que perturban la capacidad de la gente para distinguir la verdad de la mentira. Los piratas informáticos están utilizando la IA para encontrar vulnerabilidades en programas informáticos y facilitar la creación de programas maliciosos. Personas enfermas están creando pornografía infantil generada por IA a partir de fotos disponibles públicamente en las redes sociales o de fotos de niños que conocen. Estudiantes están creando imágenes de desnudos ultrafalsas de sus compañeros para una serie de fines repugnantes. Un adolescente fue chantajeado con imágenes generadas por IA y se suicidó.

Cualquier mal que la mente humana pueda idear puede amplificarse y hacerse realidad con las herramientas de la IA. La IA se está utilizando para acelerar la búsqueda de sustancias químicas peligrosas, incluyendo agentes nerviosos como el VX y variantes aún más tóxicas. Las mismas herramientas que los científicos utilizan para descubrir cómo avanzan las enfermedades y diseñar nuevos medicamentos también pueden ser utilizadas para dañar a las personas, por ejemplo, acelerando el proceso de creación de agentes biológicos peligrosos. Puede acelerar los daños intencionales e involuntarios en los campos químico e industrial.

Los pioneros de la IA presumen de incorporar protecciones a sus tecnologías para evitar estos abusos. Pero el daño ya está hecho. Las capacidades de la IA están avanzando a un ritmo demasiado rápido, causando que los responsables del control de calidad o los reguladores sean incapaces de mantener el ritmo. Aunque todo el mundo tuviera los motivos más puros al utilizar la IA, seguiría creando problemas. Pero mucha gente la utiliza con motivos que están lejos de ser puros: pereza, avaricia, lujuria, engaño, fraude, venganza, malicia. Es literalmente imposible evitar que esta tecnología se utilice para estos fines.

No obstante, una vez más, los impulsos para continuar con los vertiginosos avances tecnológicos son mucho mayores que cualquier preocupación por su uso indebido.

Aunque algunos de los efectos a corto plazo están resultando bastante desagradables, los efectos a largo plazo son imposibles de calcular.

Armas

A pesar de todas estas señales de advertencia, los ingenieros siguen integrando frenéticamente la IA en muchos aspectos de nuestras vidas: termostatos, electrodomésticos, aspiradoras robóticas, cámaras de seguridad, juguetes para niños, accesorios deportivos, señales de tráfico, herramientas de pronóstico meteorológico, comercio bursátil, redes eléctricas, etcétera.

Y lo que está viendo a diario es sólo una fracción de la transformación que se está produciendo en la esfera militar. Es aquí donde la mezcla del bien y del mal de este árbol resulta más aterradora.

Los gobiernos de todo el mundo están explotando el potencial destructivo de las armas autónomas y semiautónomas‑. Están utilizando la IA para aumentar la vigilancia, analizar las imágenes por satélite, cartografiar los campos de batalla y pronosticar los movimientos de tropas. La están utilizando para guiar misiles y sistemas robóticos y para crear sistemas de enjambres de drones capaces de abrumar las defensas. La están utilizando para una serie de aplicaciones de guerra cibernética, incluyendo el sabotaje de sistemas de armas, redes de mando e infraestructuras críticas. A medida que las herramientas de IA y la robótica se abaratan, la barrera para desarrollar armas autónomas poco sofisticadas, drones comerciales modificados para ataques y otros sistemas robóticos peligrosos disminuye considerablemente. El armamento altamente sofisticado, y el riesgo de que cause caos, se está extendiendo rápidamente.

Los gobiernos están entrenando a los sistemas de armamento para que reconozcan y calculen las amenazas, a fin de determinar si es necesario lanzar misiles y otras armas letales contra personas vivas. Si las naciones despliegan sistemas impulsados por la IA en redes de defensa de ‑‑alerta temprana, mando y control, y evaluación automatizada de amenazas, entonces un error podría crear una crisis más rápido de lo que los humanos pueden intervenir para detenerla.

Eso podría ser catastrófico. Pero tenemos que correr ese riesgo, ¿cierto? Tenemos que mantener el acelerador a fondo. Porque si nosotros no lo hacemos, lo harán nuestros enemigos.

Consecuencias imprevistas

El experimento de la humanidad con la IA es un ejemplo extraordinario de la ley de las consecuencias imprevistas. Exaltamos, perseguimos y compramos el “avance” a cualquier precio. Ignoramos cualquier regresión que genere. Quienes se detienen a hacer preguntas son relegados. Aquellos que apuntan a señales preocupantes son sofocados. Los escrúpulos y las aprensiones son para perdedores. Los fuertes prevalecen; los débiles son aplastados.

En cierto sentido, este proceso caótico es como una versión supercomprimida del propio desarrollo de la civilización. Se abandonan las leyes y la moral de Dios, y la gente se despoja de la moderación. Los interrogantes sobre lo correcto o lo incorrecto son sustituidos por interrogantes sobre viabilidad y beneficio. Las lecciones son ignoradas.

Es imposible pronosticar lo revolucionarios y profundos que serán los efectos de la adopción de esta potente tecnología anarquista por parte de la sociedad. No espere que las empresas cuyo dios es el dinero o los gobiernos codiciosos de poder impongan algún tipo de restricción, sin importar el precio que esto suponga para las personas reales.

Este es el entorno ideal para que el dios de este mundo, el príncipe de la potestad del aire, se introduzca, tal y como lo hizo en el Huerto del Edén. Cuando él logra que la gente se enfoque exclusivamente en el potencial y los beneficios, que persiga el interés propio, que ignore las consecuencias y los inconvenientes, que intimide a los detractores para que guarden silencio, puede llevarlos por la nariz a donde quiera. La IA está demostrando ser un arma extraordinariamente poderosa en el arsenal del diablo en muchos sentidos.

Dos mil años después de que el diablo persuadiera al primer hombre y a la primera mujer para que rechazaran el consejo de Dios y comieran del fruto prohibido, él influenció a una gran masa de hombres para que unieran sus energías y esfuerzos en la construcción de un poderoso monolito. La torre de Babel fue una carrera precipitada hacia el “avance” de la civilización, desafiando a su Creador. A Dios le preocupaba que nada les haría “desistir ahora de lo que han pensado hacer”, incluso las maldades más atroces (Génesis 11:6).

La IA bien puede representar la apoteosis de la imaginación humana sin restricciones. Pero es la imaginación sobrecargada, y en cierto sentido secuestrada, por una tecnología inhumana e inescrutable. Y estas herramientas están rompiendo las restricciones de nuestra imaginación en un momento en el que la sociedad también se ha deshecho violentamente de las restricciones morales y ha dejado a un lado la brújula que Dios nos ha dado para distinguir entre el bien del mal. Con el diablo a nuestro lado, buscamos lo que se nos antoja, y seguimos a nuestros corazones engañosos a dondequiera que nos lleven.

Esto sin duda conducirá a una ruptura y a un reinicio de la civilización, muchas veces más espectacular y destructivo que lo que ocurrió en Babel.