Cualquier duda, escríbenos a
[email protected]
Whatsapp: +52 55 8369 5959
Back

Humanos Centauro

En 2009 Google propuso una idea poderosa en su artículo The Unrazonable Effectiveness of Data

“… Los modelos simples y una gran cantidad de datos superan a los modelos más elaborados basados en menos datos”

Esta información ha dado forma a la evolución no una, sino dos revoluciones tecnológicas: El Big Data y el Aprendizaje Profundo. Y nos ha llevado a empezar a pensar en la IA en términos de tiempo en lugar de inteligencia. 

Específicamente, la IA moderna se entiende mejor como TA («Tiempo Artificial») que puede adjuntarse protesicamente a las mentes humanas. Y los sistemas informáticos de alta capacidad se entienden mejor como artefactos existentes en la hiperhistoria en lugar de artefactos que encarnan o representan la hiperinteligencia. 

Big Data

El Big Data fue impulsado por la caída de los costos de almacenamiento. George Dyson lo definió como:

“Es Big Data cuando es más barato almacenarlo que decidir qué hacer con él”.

En algún momento, el almacenamiento se volvió lo suficientemente barato como para que valiera la pena almacenar todos los bits digitales que pudiéramos generar, lo que a veces se denomina la «data exhaust«. Es posible que esto no siga siendo cierto a medida que aumentan las entradas de datos generadas alrededor del mundo, pero es cierto en nuestro presente. Incluso si no fuera estrictamente cierto, hemos superado un umbral crucial, ahora podemos capturar y preservar digitalmente muchos más datos de cualquier actividad humana de los que cualquier mente humana involucrada en ella podría comprender, procesar o transmitir directamente. 

Este es el umbral que importa: superar los límites de ancho de banda de transmisión cultural humana. Ahí es donde comienza el Big Data en la práctica. En 2012, surgieron un montón de tecnologías para la gestión de datos a gran escala, pero el factor básico fueron los bajos costos de almacenamiento. Las personas que describen el Big Data y la Data Science como «solo estadísticas» pierden el punto de que en ambos casos más sí es mejor. El Big Data no fue una moda pasajera. Instaló una gran cantidad de tecnologías y capacidades para manejar datos a escala en nuestro entorno tecnológico. Y creó las condiciones para lo que vino después: el aprendizaje automático (machine learning). 

Modelos más simples

En un nivel abstracto, el aprendizaje automático moderno se trata de “algoritmos más simples” en forma de marcos de trabajo (frameworks) que son extremadamente livianos (en términos de líneas de código) en relación con lo que logran. En términos coloquiales significa que con poco logran mucho.

Representan un apalancamiento computacional mucho mayor que el código tradicional. Su enfoque funciona en dos etapas. 

  • Fase de entrenamiento: Es computacionalmente más costosa y utiliza marcos de trabajo para digerir grandes cantidades de datos en modelos de dominios de comportamiento, como el procesamiento del lenguaje natural, el reconocimiento de imágenes y las recomendaciones. 
  • Fase de inferencia: Es computacionalmente más barata, aplica estos modelos de trabajo digeridos a nuevas situaciones. Ten en cuenta que los «modelos» no son modelos en el sentido comprensible para los humanos. Simplemente significan una forma compacta y digerida de la información latente en los datos de entrenamiento, en una forma adecuada para tomar decisiones. 

Es por eso que la “IA explicable” o más apropiadamente, lo que Carlos Bueno ha denominado IA justificable, es un tema de debate activo, aunque en gran medida equivocado. Pero más allá de ese debate, está la cuestión de cómo estos modelos entienden sus mundos (de datos), encarnados por lo que se conoce como los espacios latentes. Si los modelos de IA no se pueden reducirse a términos de referencia humanos, tal vez el pensamiento humano pueda expandirse para comprender los términos de referencia computacionales. Como pasajeros de esta línea del tiempo nos toca aprender a vivir en esta hiperhistoria por lo tanto tendremos que aprender a expandirnos.

Software 2.0 

El entrenamiento de modelos modernos de ML (Machine Learning) requiere computadoras más poderosas que puedan abordar el problema. Sin embargo, la inferencia suele ser lo suficientemente liviana para ejecutarse en los dispositivos informáticos personales más baratos, como los teléfonos inteligentes. Es importante apreciar este punto para el replanteo de la inteligencia en términos temporales: los modelos digeridos están adaptados por impedancia a los cerebros humanos y a los dispositivos de escala humana, incluso si los datos de entrenamiento y los cálculos no lo están. 

La revolución del aprendizaje automático ha sido impulsada por el desarrollo de una serie de marcos de trabajo cada vez más poderosos matemáticamente hablando, lo que significa que pueden digerir cantidades crecientes de datos de entrenamiento, con cantidades decrecientes de supervisión, produciendo inferencias cada vez más confiables. 

Estos desarrollos inicialmente superaron la Ley de Moore, pero ahora han llegado a su límite y se mantienen a la par. A medida que obtienes un mejor hardware, puedes entrenar modelos mejores y más grandes, y como consecuencia hacer inferencias más confiables con ellos. 

Esto es lo que Andrej Karpathy ha denominado Software 2.0, básicamente una idea que comprueba lo que Google quiso decir con “modelos más simples” en su artículo de 2009. El almacenamiento barato nos dio «más datos» y los marcos de aprendizaje automático nos han proporcionado «algoritmos más simples». 

Una forma de pensar sobre el cambio al Software 2.0 es: si el cálculo es código + datos, la inteligencia se mueve del código a los datos digeridos. El código simplemente lo destila y lo concentra entre la entrada sin procesar y la salida modelada. En estricto sentido, no «piensa». Un modelo de IA moderno es algo así como un lenguaje no programable, personalizado y específico de dominio que solo está disponible como un tiempo de ejecución compilado

Bajo ciertas condiciones, los algoritmos más simples y más datos funcionan mejor que los algoritmos más complejos con menos datos. 

Humanos entrenados por IA

Un caso particularmente importante es el del cerebro humano, visto como software. Los humanos no somos software 2.0, no porque nuestro hardware cerebral sea incapaz de ejecutarse en los modos descritos previamente de software 2.0, sino porque nuestro pensamiento está limitado por los modos de transmisión cultural humana

Por ejemplo, si estás aprendiendo algo de esto que estás leyendo, no es de los mismos datos de entrada que dieron forma a mi propia comprensión. Estás aprendiendo de mi comprensión y capacidad de escritura digeridas a escala humana, con todos mis límites y creencias personales. Y no tengo una manera fácil de permitirte agrupar mis datos de entrada en los tuyos. No se puede pensar con datos de dos vidas humanas. Solo puedes crear y estructurar tus conclusiones digeridas con las mías. 

Esta restricción explica en gran medida porque los mayores no son necesariamente más sabios. Los cerebros más lentos y experimentados no necesariamente superan a los cerebros más agudos y jóvenes. De hecho, la mayoría de los campos tradicionales del esfuerzo humano presentan un patrón donde «el estudiante se convierte en el maestro». Si eres más joven y más listo que yo, es posible que puedas hacer señalamientos sobre esto que escribo y enseñarme una o dos cosas, incluso si eres mucho nuevo en el tema de la IA.

Todo esto se vuelve más claro si lo analizamos con el ejemplo de IA favorito de todos, el ajedrez. Se solía decir que los ajedrecistas mayores ganaban por experiencia a los más jóvenes y talentosos. Por un momento. Hasta que no lo hicieron. Solían decir eso de Karpov en los años ochenta, cuando se enfrentó a Kasparov, por ejemplo. Pero cuando Magnus Carlsen derrotó a Vishwanathan Anand en 2013, se reveló algo extraño y nuevo. Parecía que Carlsen no solo era más un talento en bruto que Anand sino que al mismo tiempo era «mayor» de una manera extraña, a pesar de ser 21 años más joven. 

Carlsen era lo suficientemente joven como para haber sido efectivamente «criado por las IAs», es decir, entrenado por las IA de ajedrez más sofisticadas disponibles en las computadoras personales cuando era niño. Su estilo de juego se describió como un juego inspirado en las máquinas, presionando con fuerza hasta el final, explorando líneas de juego inverosímiles y poco convencionales ante lo que la perspectiva de juego humana sugeriría. 

Esas descripciones suenan muy similares a cómo se describieron AlphaGo y AlphaGoZero, en términos de estilo de juego en relación con los maestros humanos, unos años después. Esto es muy importante ya que así como en 1997 la supercomputadora de IBM, Deep Blue, venció a Garry Kasparov lo mismo ocurrió años más tarde con Go, el juego de mesa más antiguo del mundo.

Definitivamente las computadoras están a la cabeza en juegos como el ajedrez y el Go, y para ser honestos no hay diversión en los juegos directos entre humanos y máquinas, por eso se han creado cosas como el Centaur Chess: una forma de ajedrez en la que cada jugador humano utiliza un programa de ajedrez informático para explorar los posibles resultados de sus movimientos. A pesar de esta ayuda de la computadora, es el jugador humano quien controla y decide el juego.

Es posible que Carlsen no recibiera asistencia de IA en vivo durante los torneos convencionales en los que competía, pero haber sido entrenado por la IA en su juventud ya lo había convertido en un tipo diferente de jugador en 2013. 

En la novela de Iain M. Banks, Player of games, aprendemos que la IA de “Las Mentes de La Cultura” no tienen juegos humanos porque son demasiado fáciles; pero entrenan al protagonista en una misión encubierta para socavar una civilización adversaria construida alrededor del juego más complejo conocido por ser jugado por formas de vida biológicas. Toda la civilización se basa en siglos de juego. Pero el jugador alienígena de “La Cultura”, entrenado por “Las Mentes”, supera fácilmente a los jugadores nativos con sus siglos de aprendizaje tradicional acumulado, y cumple la misión. 

“Las Mentes” no necesitaban participar directamente en el juego en vivo. Podían transmitir sus conocimientos del juego a su agente humano. Como resultado de la asimetría de entrenamiento / inferencia, el cerebro humano no tenía que ser tan poderoso computacionalmente como una “Mente” para jugar como tal. 

Un jugador entrenado por IA obviamente desarrollará un estilo muy diferente en comparación con aquellos que entrenan jugando contra los seres humanos vivos que los rodean. Sus mentes no estarán atadas por la tradición como las de los humanos enseñados por otros humanos. Su desarrollo no se verá limitado por los modos de transmisión cultural humana. 

El estilo Carlsen de aprendizaje se benefició de lo que son efectivamente cientos de años equivalentes a humanos de experiencia de juego de ajedrez digerido que la IA ha adquirido durante su fase de entrenamiento, y aplicó en la fase de inferencia en nuevos juegos. Y a diferencia de las IA de la era de Carlsen, las IA modernas ya ni siquiera se limitan a aprender solo de la experiencia humana pasada. Como demostró AlphaGoZero, se puede mejorar todavía más si se abandona la experiencia humana pasada y simplemente se generan nuevos datos haciendo que la IA juegue contra sí misma.

Por lo tanto, un jugador moderno entrenado en un circuito de aprendizaje bien diseñado contra las IA más recientes tiene una verdadera «edad de jugador» que es una función de su edad biológica más su «edad de IA» heredada que es una medida del tiempo de experiencia equivalente al humano. Entonces, tal vez debido a que creció jugando contra programas de ajedrez en computadoras, Magnus Carlsen realmente tiene 200 años. De modo que, quien derribe a Magnus Carlsen tendrá 2,000 años. 

Esto no es como pertenecer a una tradición intelectual, con un linaje de maestros que transmiten sus conocimientos y habilidades a través de los libros y la enseñanza. Ese proceso de transmisión cultural está limitado por los cuellos de botella individuo-humano-mente que se deben atravesar periódicamente. El aprendizaje automático no está limitado de esa manera, siempre que los datos sin procesar sean lo suficientemente baratos para almacenarse. Y si podemos acceder a ese aprendizaje, nosotros también podemos ser centauros como Magnus Carlsen. 

Esto cambia los roles percibidos actualmente de un momento en donde los humanos estamos entrenando a la IA a un momento en donde la IA nos está entrenando a nosotros. 

Humanidad aumentada 

Marshall McLuhan en su libro de 1984, Understanding Media: The Extensions of Man, hablaba sobre las “extensiones del hombre” para él cualquier tecnología nueva se convertía en una extensión de nuestra comunicación y de la forma en que percibimos y entendemos el mundo que nos rodea. Concuerdo con McLuhan, de hecho como ya lo he venido mencionando, la IA es una extensión más de nuestro tiempo que de nuestra inteligencia.

Lo anterior se explica de la siguiente manera: la extensión o aumento de los seres humanos con el aprendizaje automático aumenta su edad de experiencia efectiva, lo que significa que gracias a la Inteligencia Artificial podemos poseer una mayor «experiencia vivida» de lo que nuestra edad biológica sugiere porque habremos adquirido una experiencia protésica, en forma resumida y digerida

Cada uno de esos bits digeridos adjuntos a nuestro cerebro podría medirse en términos del tiempo experimentado que representa. Aquí es donde entra en juego la asimetría de costos explicada anteriormente sobre la fase de entrenamiento y la fase de inferencia. Necesitas grandes grupos de computadoras poderosas para entrenar los mejores y más grandes modelos, pero en su mayoría solo necesitas computadoras a escala personal mucho más baratas para hacer inferencias con esos modelos. 

Por lo tanto, los cientos o miles de años de experiencia están registrados en una infraestructura costosa que vive en tiempos hiperhistóricos, pero se pueden utilizar a escala humana en tiempos históricos. Es posible que ni siquiera necesites una computadora personal. Podría ser suficiente haber sido enseñado por computadoras. Tu propio cerebro podría ser suficiente para contener modelos digeridos adecuados para la inferencia. 

Podemos ver un ejemplo en el tema de la escritura. Los primeros asistentes de redacción de IA (piensa en Microsoft Clippy) se sentían ridículamente malos. Sin embargo, los más recientes, que van desde las sugerencias de respuesta de correo electrónico de Gmail hasta GPT-3 o productos como textspark.ai, están comenzando a ser lo suficientemente buenos como para que valga la pena tomar en serio sus sugerencias. 

Una forma de pensar en esto es: estas IA’s ya han leído mucho más texto del que cualquiera de nosotros podría leer en mil años, y lo han asimilado para escribir formas de pensar (modelos de lenguaje) que son efectiva y suficientemente ancestrales. Sin mencionar que su comprensión de lo que han digerido no está limitada por las tradiciones interpretativas humanas o las inseguridades de identidad de varias tradiciones intelectuales. 

Si me conecto con una IA de asistente de escritura de la manera correcta, incluso con una ineficacia significativa, estaría escribiendo efectivamente como una persona de 1033 años en lugar de una de 33 años. Si pudiera aprender a hacer espeleología en los espacios latentes de estos modelos, sería capaz de escribir de una manera que ningún ser humano ha escrito antes. 

De hecho, es posible que esto ya les haya sucedido a algunos escritores. Se podría decir que William Gibson ya es un humano (escritor) centauro, que practica la escritura en el género del realismo en red, y vive en el futuro distribuido de manera desigual de todos los escritores. Su escritura es un caso de vivir intensamente en el presente hiperhistórico, donde todo acceso al pasado, presente y futuro está mediado por la inteligencia computacional mientras escribe. 

Este fue uno de los temas que abordé en mi charla TedX titulada «Tiempo Artificial»

Humanos Centauro 

Obviamente, inventé mis números antes, por efecto retórico. No está claro qué significa decir que Magnus Carlsen tiene «200 años» en “años datos”. Pero podemos concebir una forma sistemática de estimar su «edad centauro” basada en las habilidades que practica en formas computacionalmente aumentadas. Esta idea de edad experiencial, o centauro, no es lo mismo que la edad biológica como facilitadora de la experiencia humana, porque recordemos que las limitaciones culturales impiden que los cerebros humanos sean verdaderos sistemas de Software 2.0. 

Algo que resaltar. Los humanos no aumentados también experimentan una transición que parece pasar de algoritmos complejos a simples y de menos a más datos a medida que envejecen. Pero esto tiene menos que ver con la sabiduría y más con la adaptación a la degeneración del envejecimiento y los efectos limitantes de la transmisión cultural tradicional. 

No necesariamente nos volvemos más sabios con la edad porque también nos volvemos más conservadores culturalmente, llegando a los límites tanto de lo que podemos aprender de las tradiciones humanas como de nuestros propios sentidos defectuosos y experiencias cada vez más limitadas. Ahora pienso de maneras mucho más simples que hace 10 años, pero con el beneficio de 10 años de experiencia digerida personalmente. Pero esto no es Software 2.0. No estoy pensando mejor con «algoritmos más simples y más datos». 

Los seres humanos biológicos son simplemente malos para ser lo suficientemente exploradores como para registrar un año de datos por un año de vida vivida. Así que terminamos siendo un conjunto de prejuicios conservadores a medida que envejecemos y crecemos en nuestro camino. Envejecemos, pero rara vez somos más sabios. Al contrario, pareciera que aquellos que viven una vida rica en experiencias y gozo tienden a morir jóvenes pero más sabios que aquellos que se quedan un poco atrás y que si bien sobreviven más tiempo, se divierten menos y mueren más tontos

Los sistemas artificiales no están directamente limitados en su aprendizaje exploratorio por presiones de supervivencia, o lo que se conoce en los negocios como el intercambio de exploración / explotación. Es por eso que tu “edad centauro” podría ser mucho más larga que la vida útil de un ser humano si te conectas a los sistemas artificiales de la manera correcta

Sesgos

Si vemos a la IA desde la lente del tiempo y no de la inteligencia per se, veríamos que los prejuicios humanos reproducidos que se infiltran en la IA no son un problema a largo plazo tan grave como los especialistas en ética de la IA lo hacen parecer hoy. Por supuesto que es importante mitigarlos a corto plazo, pero no son un obstáculo fundamental. Esto se debe a que las IA superan rápidamente el potencial de la experiencia humana acumulada a medida que los modelos crecen en tamaño y riqueza. Su creciente no humanidad eventualmente reemplaza sus prejuicios humanos heredados. 

Por supuesto que una IA que digiere un trillón de conjuntos de datos de entrevistas reales terminará aprendiendo y reproduciendo todos los sesgos de contratación de los humanos. Nadie con un conocimiento pasajero de la tecnología se sorprendió por esto. Esto dice menos sobre las limitaciones de la IA que sobre la repetitividad y la redundancia mimética de los datos de vida humana utilizados para entrenarla

Si pudieras convertir la entrevista en un régimen de entrenamiento que tomara como modelo de trabajo «jugar contra ti mismo» como lo hizo DeepMind con Go, saldrías de esto en poco tiempo. La IA comenzaría a contratar candidatos totalmente sorprendentes para puestos de trabajo, que continuarían desempeñándose de maneras casi mágicamente efectivas. Alguien se dará cuenta de esto muy pronto, convirtiendo la contratación en un juego tipo Go. Lo más probable es que las organizaciones humanas tengan que rediseñarse por completo en torno a estas nuevas formas de conocerse y trabajar juntas, mediadas por computación. 

Si esperas que las organizaciones tradicionales simplemente «adopten» sistemas basados ​​en IA dentro de las funciones tradicionales, te encontrarás con una sorpresa. Reducir la velocidad de las IA para que operen a velocidades institucionales humanas es desaprovechar la cuestión de su valor por completo. Y todo esto asumiendo que las IA operan en entornos de decisión a escala humana, con una prehistoria humana pero ya vimos que no es así, ellas operan en una hiperhistoria.

Hoy en día, las IA están comenzando cada vez más a tomar decisiones en dominios que nunca existieron realmente para los humanos. En el mejor de los casos, podríamos participar en dominios que solo existen porque existen sistemas informáticos con la capacidad suficiente para operar y aprender modelos en ellos. La lección más importante aquí es la siguiente: la experiencia humana vivida no vale tanto como hemos pensado. 

Vacuidad

Cada revolución científica o tecnológica derriba otra presunción antropocéntrica. Ahora mismo se está derribando la presunción de que nuestras vidas son importantes en términos informativos. Que cada historia de vida está llena de una riqueza única que vale la pena narrar. Lo humillante del auge del aprendizaje automático no es que nos muestre lo estúpidos que somos en términos de «inteligencia», sino lo vacías que están nuestras vidas, en términos de su contenido de información. Este momento de la historia es como el momento en que se descifró la estructura del átomo y nos dimos cuenta de que la materia aparentemente sólida se entendía mejor como un espacio mayormente vacío formado por campos. 

En la última década, hemos descubierto que las vidas humanas son, en su mayoría, un tiempo vacío de información, que existe en un conjunto escaso de conexiones con el tiempo hiperhistórico en el que las computadoras están comenzando a habitar. Las presunciones humanas envueltas en siglos de experiencia registradas con juegos como el Go y el ajedrez se han borrado en cuestión de semanas. 

Cuando eres una IA, puedes registrar la «experiencia histórica» ​​a un ritmo de décadas por semana. O quizás incluso siglos por hora. Quizás no sea sorprendente en absoluto que los últimos años, con eventos impulsados ​​por algoritmos, se hayan sentido como un desfile implacable de lo que Lenin llamó «semanas donde suceden décadas». 

Esto no es historia, es hiperhistoria. Las IA viven y aprenden en la hiperhistoria, extrayendo hasta el último bit de información de los eventos en bruto, así como de los adyacentes posibles. En una sociedad relativamente homogénea, estable y culturalmente armoniosa (del tipo que a los humanos les gusta recordar sentimentalmente como una edad de oro), no hay tanta «vida» en curso como sugieren los números nominales. 

Tres generaciones de personas (digamos un siglo entre el nacimiento del mayor y la muerte del más joven del grupo) en una ciudad con una población estable de, digamos, 10,000 habitantes, no es un millón de años humanos de experiencia de vida. Podría ser como 230 años netos. Porque todos viven aproximadamente lo mismo, vidas igualmente vacías. 

Esto significa que nominalmente la experiencia de vida de esas 10,000 personas podría ser de 1,000,000 de años pero en «años datos» no son más de 230.

Años datos

Cuando introduces datos no tan grandes generados por la vida humana en una IA, en realidad no es tanto en términos informativos. Bien digerida en términos de contenido de información real e inteligencia para la toma de decisiones, con un descuento adecuado por repetición e imitación, toda la historia humana no tiene miles de millones o billones de datos por valor de años humanos. 

Probablemente sean más como decenas de miles de años humanos. El ser humano promedio en la historia probablemente no ha contribuido más que unos pocos minutos de datos al conjunto de datos históricos humanos compartidos. En cierto sentido, el ser humano promedio muere a una edad de datos de quizás 5 minutos, en términos de datos novedosos aportados al conjunto de experiencias humanas. 

En términos de experiencia nueva para ti, tal vez 100 años de envejecimiento cronológico equivalgan tal vez a 20 años de envejecimiento de datos. Incluso si sólo estás creciendo 1 año por cada 5 vividos en términos biológicos, tu cuerpo de centauro computacionalmente extendido podría compensarte con creces, inyectando 100 años de experiencia en cada año de tu vida vivida. 

Estarías envejeciendo en datos a una tasa de 100.2 años por año de vida biológica. Esto ya nos está sucediendo a todos en un grado notable. No necesitas acceso a tecnología compleja de aprendizaje profundo moderno para ver eso. No es necesario ser un jugador de ajedrez como Carlsen, o un escritor centauro como William Gibson. Aquellos de nosotros que hemos estado usando la búsqueda de Google durante 22 años ya tenemos como 100 años más que nuestra edad biológica. 

Cada año vivido con Google a tu alcance es como 5 vividos dentro de los límites de los libros de papel. En muchos sentidos, me siento mayor que mi abuela, que tiene 73 años. Conozco el mundo de formas mucho más ricas y mejoradas que ella, aunque todavía no tengo un dispositivo protésico conectado a mi cráneo. No es que necesariamente sea más inteligente que ella. Solo he envejecido más que ella. 

Ideas como “construir un segundo cerebro” aprovechan esta nueva potencialidad básica en la condición humana; nuestra nueva capacidad de envejecer más rápido de lo que podemos vivir, mediante el uso de máquinas para hacer gran parte de la vida superhistórica por nosotros. 

Señales emergentes de este tema los tocamos en el episodio 132 de Creative Talks Podcast, en donde hablamos de “The Crown”.

Superando nuestros propios límites

Es tentador argumentar que no hay nada nuevo en este fenómeno. Esa experiencia humana digerida siempre ha estado a nuestro alrededor en forma de instituciones culturales. Pero este argumento no solo es defectuoso, sino completamente erróneo. 

Esas viejas instituciones fueron construidas como extensiones de nosotros mismos, reproduciendo e incluso intensificando toda la extrema repetitividad y redundancia de nuestras propias vidas. Fueron moldeados por una costosa tecnología de almacenamiento. No podías permitirte almacenar todo. Había que decidir qué hacer con eso y almacenarlo en formas que iban desde la poesía épica hasta memorandos gubernamentales. 

Los cerebros humanos individuales tuvieron que digerir fragmentos manejables de datos y convertirlos en pequeños ladrillos informativos para el desarrollo institucional pre-computacional. Lo que pasa con los algoritmos simples que operan en un mundo de datos generados por la vida humana y tipos más amplios de datos es que superan nuestros propios límites y descartan nuestro pasado de una manera que las instituciones tradicionales simplemente eran incapaces de hacer. 

Porque las instituciones tradicionales dependían del cerebro humano para hacer la computación y de tecnologías de almacenamiento extremadamente caras. Las instituciones tradicionales no pudieron aprovechar la efectividad irrazonable de los datos, por lo que se vieron obligadas a confiar en modelos complejos y menos datos. Ahora hay cerebros no humanos que hacen la digestión y se basan en vastos superconjuntos de experiencias humanas y no humanas almacenadas a bajo precio, pero potencialmente libres de nuestras tendencias hacia la repetición y la imitación. 

El hecho de que las IA estén reproduciendo temporalmente todos nuestros sesgos es casi una nota a pie de página irrelevante. Es probable que ingresar a las IA de la hiperhistoria latente, supere todas nuestras presunciones y ansiedades antropocéntricas actuales porque no se limitan a los datos generados por la vida humana. 

Últimamente, han estado aprendiendo principalmente de sí mismas, de formas independientes de detectar el mundo (desde cámaras en automóviles hasta modos de detección sin equivalente humano como los sensores de temperatura distribuidos en un centro de datos), e incluso están comenzando a emanciparse del etiquetado humano de conjuntos de datos. 

Los algoritmos de conducción autónoma ya funcionan de manera diferente a los humanos porque están aprendiendo de docenas de cámaras en lugar de solo dos cámaras orientadas hacia adelante. Además, están aprendiendo de LIDAR, radar y otros tipos de fuentes de datos. Y lo más importante, debido a que están agrupando datos de maneras imposibles, están aprendiendo de muchísimos más kilómetros sin procesar de los que cualquier ser humano podrá registrar. 

No es un automóvil que está aprendiendo a conducirse por sí mismo. Es una mente colmena de miles de cerebros de automóviles que combinan datos sin procesar. Un coche-borg. Este efecto ya era evidente en las IA previas al aprendizaje profundo: los sistemas de aeronaves Autoland funcionaban mejor que los pilotos humanos en promedio hace décadas. La diferencia solo se hará más marcada. 

Lo que todo esto significa es que las IA ya están detectando, registrando, generando y digiriendo la historia a un ritmo de décadas o siglos por semana. La IA no es una tecnología joven desde el punto de vista de sus temporalidades nativas, pero en términos de tiempo de entrenamiento hiperhistórico registrado, son tecnologías muy antiguas. Incluso más antiguas que los artefactos más antiguos hechos por humanos en términos de experiencias históricas (reales o simuladas) registradas y digeridas. 

Las pirámides de Egipto son bebés en comparación con, por ejemplo, GPT-3. Lo interesante es cómo vamos a conectar todo este Tiempo Artificial a nuestros propios cerebros y cómo eso nos va a convertir en Dioses Antiguos de nosotros mismos. Cada vez que buscas en Google algo a lo que tu abuela simplemente se habría resignado a no saber nunca, estás convirtiendo los “datos minutos” a segundos. 

No es solo el hecho aislado lo que aprendes. Es el camino de la formación y la experiencia que llevó a la existencia de ese artefacto y lo puso al alcance de tu mano. Un camino que cada vez está menos limitado por una tradición de mentes humanas encasilladas por modos egoístas de producción, preservación y transmisión cultural, sino que está únicamente limitado por los costos de almacenamiento y computación. 

No estás viviendo como testigo del surgimiento de la hiperinteligencia artificial. Vives como un humano que será posiblemente aumentado por los “años datos”. Estás viviendo al final de la historia y entrando en una hiperhistoria creada por máquinas. ¿Estás listo?

Fernanda Rocha
Fernanda Rocha
Directora de Futuros de Blackbot. Especialista en Futuros y Prospectiva. +10 años de experiencia como consultora en diseño estratégico e innovación. +10 años de experiencia impartiendo clases, sesiones, talleres, etc., alrededor de los temas: innovación, diseño estratégico, creatividad, negocios y futuros.

Este sitio web almacena cookies en tu computadora. Política de Privacidad