Durante miles de años hemos dado por sentado algo: que el ser humano es el punto más alto de la evolución. No el más fuerte, ni el más rápido, sino el más grande. inteligente. Esa ventaja (nuestra capacidad de pensar, crear y decidir) nos ha permitido dominar el planeta. Hoy, por primera vez en la historia, esa premisa está empezando a desmoronarse. No porque apareciera otra especie. Sino porque lo creamos nosotros.
La inteligencia artificial ya no es sólo una herramienta. Es un sistema capaz de aprender, mejorar y realizar tareas cognitivas que durante siglos hemos creído exclusivamente humanas. Lo que comenzó como una tecnología de automatización de procesos ahora abre una pregunta mucho más profunda: ¿Qué pasará cuando dejemos de ser la especie más inteligente del planeta?
Los avances más inquietantes no se encuentran sólo en los algoritmos que reemplazan puestos de trabajo o en los sistemas que respaldan las decisiones militares. Está en la convergencia de la inteligencia artificial, la biotecnología y las interfaces cerebro-computadora. Tecnologías que ya no sólo quieren ayudar al ser humano, sino modificarlo.
En 2024, un paciente llamado Noland Arbaugh se convirtió en el primer ser humano en recibir un implante cerebral Neuralink que le permitía controlar una computadora con su mente. Lo que hoy se presenta como progreso médico (y lo es) abre una puerta mucho más grande: la posibilidad de expandir las capacidades cognitivas humanas más allá de sus límites biológicos.
Una cosa es utilizar la tecnología para devolverle la movilidad a una persona paralizada. Otra muy distinta es utilizar la misma tecnología para crear seres humanos más rápidos, más inteligentes, con mayor memoria o acceso directo a información en tiempo real. En ese momento ya no hablamos de medicina. Estamos hablando de evolución dirigida.
La posibilidad de mejora cognitiva de los seres humanos podría producir la forma más extrema de desigualdad que jamás hayamos conocido: no sólo económica, sino también biológica. Una élite con acceso a tecnologías de mejora en comparación con la mayoría que sigue limitada por sus capacidades naturales.
El historiador Yuval Noah Harari advirtió contra este escenario con el provocativo término: «clase inútil». Personas que no sólo están perdiendo sus empleos a manos de las máquinas, sino también su importancia económica y, por tanto, su poder político.
Si las máquinas alcanzan niveles de inteligencia superiores a los humanos –lo que algunos expertos llaman superinteligencia– la cuestión deja de ser social y se vuelve existencial. ¿Qué lugar ocupa una especie cuando ya no es la más inteligente?
El filósofo Nick Bostrom plantea una hipótesis inquietante: una inteligencia artificial suficientemente avanzada podría desarrollar sus propios objetivos que no necesariamente implican el bienestar humano. No por malicia, sino por indiferencia. De la misma manera que los humanos no consideran el impacto de sus decisiones en una colonia de hormigas, la superinteligencia simplemente no nos considera relevantes.
Puede parecer exagerado. Pero la historia evolutiva es clara: cuando dos especies compiten por el mismo entorno y una tiene una ventaja cognitiva significativa, la otra desaparece o se vuelve irrelevante.
El Homo sapiens reemplazó a los neandertales no porque fueran más fuertes, sino porque eran más adaptables, más creativos, más inteligentes. La pregunta ahora es incómoda pero inevitable: ¿podría pasarnos lo mismo a nosotros?
Hay tres caminos posibles. La primera es la utopía transhumanista: Ray Kurzweil predice que en 2045 alcanzaremos la Singularidad, el momento en que la inteligencia artificial igualará y superará a la inteligencia humana. Sin enfermedades, sin envejecimiento, con acceso instantáneo a todo tu conocimiento. La segunda es la distopía: Yuval Harari advierte que la humanidad se dividirá entre una pequeña élite de superhumanos mejorados biotecnológicamente y la gran mayoría de humanos naturales económicamente irrelevantes. La élite vivirá 300 años; el resto sobrevivirá con una renta básica universal. No habrá movilidad social porque no se puede competir con alguien que tiene un chip que procesa información cien veces más rápido. La tercera es la extinción: el filósofo Nick Bostrom sugiere que una superinteligencia podría decidir que los humanos somos un obstáculo para sus objetivos y eliminarnos, no por odio, sino por eficiencia, del mismo modo que ignoramos a las hormigas cuando construimos una carretera.
El peligro del posthumanismo es que no sabremos cuándo hemos pasado el punto sin retorno hasta que ya lo hayamos superado. Si reemplazas una neurona biológica por una artificial, sigues siendo tú. Si cambias cien, probablemente y. ¿Qué tal diez mil dólares? ¿Un millón? Es el Barco de Teseo aplicado a la mente humana: si cambias cada parte gradualmente, ¿en qué momento desaparece el original? No lo sabemos, porque no sabemos qué genera la identidad. Y ahí está el problema: el cambio será tan gradual que no habrá un momento claro de alarma. Un día miraremos atrás y no habrá vuelta atrás.
¿Debería permitirse la mejora cognitiva humana sin límites? ¿Quién decide quién tiene acceso a estas tecnologías? ¿Puede la sociedad obligar –directa o indirectamente– a sus ciudadanos a mejorar para poder competir? ¿Estamos preparados para reconocer los derechos de las entidades no humanas si toman conciencia? Son preguntas que hace apenas diez años parecían ciencia ficción. Hoy en día, comienzan a tener lugar verdaderos debates en laboratorios, empresas de tecnología y centros de poder.
Cada avance en inteligencia artificial, cada desarrollo de interfaces neuronales, cada mejora en biotecnología nos acerca al punto en el que ya no será una pregunta teórica: ¿somos todavía humanos en el sentido en que siempre lo hemos entendido?
O, aún más inquietante:
¿Seguiremos siendo la especie dominante?
alejandro toro