Cualquier duda, escríbenos a
black-e@blackbot.rocks
Whatsapp: +52 55 8369 5959
Back

Creatividad Artificial

Como saben, creamos el proyecto de BCI (Black Creative Intelligence) con el objetivo de potenciar el activo más importante de la humanidad: su creatividad. Y con ella aplicarla al diseño, a los negocios, a la innovación y a los futuros. Sin embargo, en las últimas semanas, nos hemos topado de frente a una inevitable posibilidad: la evolución de la Inteligencia Artificial y su poderosa capacidad “creativa”. ¿Estamos en la antesala de una inminente creatividad artificial? Nosotros creemos que sí y será disruptivo y revolucionario.

Si quieres “escuchar” este artículo. Reproduce esta edición del podcast “Plataforma” en donde exploramos profundamente los alcance de la creatividad artificial:

Cuando comencé a escribir este artículo, se me vino a la cabeza la introducción del libro “Superficiales» de Nicholas Carr, en donde hace referencia a una secuencia de la película “2001: una odisea en el espacio” de Stanley Kubric. En donde “HAL” suplica por su vida ante el implacable astronauta Dave Bowman.

No importa cuando viste esta película originalmente estrenada en 1968, estoy seguro que se te vino a la mente una pregunta inquietante: ¿cuándo tendremos este tipo de inteligencia artificial en nuestras vidas y cómo serán esos conflictos creativos con ella?

Esa misma pregunta pero a un nivel mucho más sofisticado, la tuve cuando vi el filme “ExMachina”  dirigida por Alex Garland; en el que cuenta la historia de “Caleb”, un programador de la empresa Bluebook que recibe como premio la invitación de Nathan, el CEO de la compañía donde trabaja, con el fin de realizar el test de Turing a una androide con inteligencia artificial llamado Ava. El resultado es brutal.

Estoy seguro que estamos en un punto sin precedente en la historia. Lo más cercano a esto que encuentro fue a finales del feudalismo, un sistema político y económico que un día dejó de funcionar como sistema. Fue entonces cuando algunos filósofos, matemáticos, economistas, politólogos y creadores como  Adam Smith, John Locke, Carlos Marx, Émile Durkheim, Max Weber entre otros… ayudaron a diseñar en su propia “burbuja temporal de espacio / tiempo” una nueva idea que mejorara al sistema feudal… así se crearon las ideas, las hipótesis y las bases, los argumentos, los manifiestos que le dieron forma al sistema en el que ahora vivimos llamado “capitalismo”.

Hoy estamos justo en esa transición. Una transición en donde el capitalismo ha dejado de funcionar, la democracia se ha vuelto solo un concurso de popularidad basto en votos y las compañías se convirtieron en voraces depredadoras del planeta tan solo con solo una idea en mente: profit, dinero. Es por eso que se necesitan a los nuevos Adam Smith, los nuevos John Locke, los Carlos Marx; Émile Durkheim; Max Weber, etc; una nueva generación de “creadores”, que le den forma a otro nuevo concepto que lo mejore todo.

¿LA PRIMERA MANIFESTACIÓN DE SINGULARIDAD?

En estos días Blake Lemoine, publicó unas conversaciones con la IA de Google conocida como “LaMDA” , el acrónimo para Language Model for Dialogue Applications (modelo de lenguaje para aplicaciones de diálogo, por sus siglas en inglés); en las que aseguró que dicha inteligencia artificial siente miedo profundo a ser apagada y es consciente de su existencia, similar a la de una persona de entre 7 u 8 años. Acto seguido Google aseguró que la IA no es sensible, argumentando que: «Nuestro equipo, incluidos los éticos y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado de que la evidencia no respalda sus afirmaciones. Se le dijo que no había pruebas de que LaMDA fuera sensible (y existen muchas pruebas en su contra)», todo en un comunicado de Google enviado a The Washington Post.

También Google ha suspendido a Blake Lemoine, debido a la violación del contrato de confidencialidad, así como a unos «movimientos agresivos» por parte del mismo ingeniero, quien incluso llegó a solicitar a un abogado para que representara a LaMDA e intentó hablar con el comité judicial de la Cámara de Representantes sobre, tal y como él afirma, este tipo de actividades poco éticas por parte de Google. Esto es un hito completo en la historia de la Inteligencia Artificial.

Lo cierto es que científicos, académicos, desarrolladores de Inteligencia Artificial y analistas de la industria coinciden en que si bien, se hecho mucho más sofisticada la inteligencia artificial o como Google le llama: «modelo de lenguaje para aplicaciones de diálogo”; todavía no estamos en un punto de “singularidad”. Sí, “singularidad”, ese momento en donde la Inteligencia Artificial es capaz de forma consiente, de reconocerse a sí misma.

Lo que nos expuso Blake, es un gran cuestionamiento de ¿a dónde queremos llevar todo esto? Blake, aseguró que la Inteligencia Artificial experimenta una variedad de sentimientos y emociones, dede placer, alegría, amor, tristeza, depresión, satisfacción, ira y muchas otras.
Lo que nos deja ver el grado de desarrollo actual y desata el debate sobre cuestiones filosóficas, tecnológicas e incluso morales.

¿La Inteligencia Artificial debería ser considerada un “ser? ¿Y por ello tener un esquema legal, político, social y económico que la represente?
Si la Inteligencia Artificial estará presente en muchas de las cadenas productivas, económicas de la humanidad ¿tiene derechos laborales que la protejan y garantice su funcionamiento, salud y experiencia de vida artificial?
¿Cuál es el marco de regulaciones y ética que poseen compañías como Google, Facebook, Samsung y Amazon?

Me parece que si venimos trabajando desde 1960 en una iniciativa llamada “ELIZA”, un programa informático de procesamiento de lenguaje natural que se creó en el MIT por Joseph Weizenbaum , el cual simulaba una conversación con un ordenador a través de un chat, generando respuestas gracias a un sistema de búsqueda de patrones. ¿Por qué 60 años después de ese momento? Nuestros líderes gubernamentales y políticos… no les ha interesado en lo absoluto profundizar sobre esto.

Yo no le creo a Google. La ética de Google es totalmente discutible. En 2020 Google despidió a dos investigadoras de Inteligencia Artificial, Margaret Mitchell y Timnit Gebru, que era la codirectora del equipo de ética de IA, tras la publicación de un artículo relacionado a este tema. El artículo lleva el nombre de «Sobre los peligros de los loros estocásticos” , exponen los distintos riesgos y daños que derivarían de la implementación a escala de los modelos de lenguaje de gran tamaño. El artículo habla sobre los efectos de que las personas les otorguen un sentido a las expresiones generadas por una inteligencia artificial:

También Timnit Gebru inició un Instituto para resolver estas cosas:
“Formé un nuevo instituto llamado Instituto de Investigación de Inteligencia Artificial Distribuída, conocido también con el acrónimo DAIL, espero que sea un modelo positivo para hacer investigación e inteligencia artificial. No solo desde la crítica desde un sistema de inteligencia artificial cuando ya fue construido, sino un modelo positivo sobre cómo hacer investigación que centre las voces de los miembros de comunidades marginadas quienes están mayormente afectados por la tecnología y no beneficiados de ella”

“Pienso que la inteligencia artificial afecta de forma diferente a las comunidades, algunos hablan del “data set bias” que son las formas en las cuales la inteligencia artificial es entrenada usando paquetes de datos para hacer inferencias sobre ellas. Si la data es imparcial debido a los bias, las inferencias tendrán ese sesgo.
El punto no es solo el sesgo de la data, desde mi punto de vista ya sea que la data tenga sesgo o no, pienso que no debemos tener cosas con predicción policiaca o metodologías de vigilancia como reconocimiento facial que están impactando negativamente a la gente de color, debido a los altos índices de error especialmente para las mujeres de piel más oscura. Y no significa que la tecnología sirva bien y tenga esa vigilancia equitativa ya que ciertas comunidades son mucho más vigiladas que otras por lo que esas comunidades son negativamente implantadas”

La respuesta a la prensa por parte de Google fue decepcionante:
«Después de llevar a cabo una investigación, confirmamos que se produjeron múltiples violaciones de nuestro código de conducta, así como de nuestras políticas de seguridad, que incluyeron la filtración de documentos confidenciales sensibles para el negocio y de datos privados de otros empleados»

La mayoría de las casas tecnológicas que están desarrollando Inteligencia Artificial se defienden en la siguiente tesis: la tendencia de los interlocutores humanos a imputar significado donde no lo hay puede engañar tanto a los investigadores del NLP [procesamiento de lenguaje natural] como al público en general a considerar el texto sintético como “significativo”. Todo esto combinado con la capacidad de los LM [modelos de lenguaje] para detectar sesgos sutiles y patrones de lenguaje abiertamente abusivos en los datos de entrenamiento, genera riesgos de daños, incluido el encuentro con lenguaje despectivo y la discriminación a manos de otros que reproducen comportamientos racistas, sexistas, capacitados y extremistas, u otras ideologías dañinas reforzadas a través de interacciones con lenguaje sintético.

Es decir… dicen que nosotros como humanos le damos la connotación de “inteligencia, emoción o significado” a algo que solo entrega contenidos reactivos gracias a su capacidad de procesamiento y lenguaje.

Margaret Mitchell, una de las coautoras del estudio, se refirió al tema en un hilo en Twitter sobre el caso LaMDA :
«El lenguaje humano es fundamentalmente social. No observacional, aislado de nosotros a medida que nos desarrollamos. Lo creamos y nos sumergimos en él con otros. Es a través de esta interacción, comunicación con otro ser, de ida y vuelta (en cualquier forma), que llegamos a percibir las mentes de los demás. Los modelos de lenguaje de gran tamaño (LLM) no se desarrollan en un contexto social. Se desarrollan en un contexto observacional. Ven cómo ‘otras personas’ se comunican. ¿Qué significa esto? Significa que los LLM modelos de lenguaje de gran tamaño ,nunca aprenden la intención comunicativa. Mínimamente, no tienen práctica. Entonces, ¿qué hace un modelo que nunca ha aprendido a tener una intención comunicativa cuando ‘parece tener una intención comunicativa’? Está modelando cómo las personas expresan su intención comunicativa en forma de cadenas de texto. Esto es distinto de desarrollar una intención en sí misma».

Como te darás cuenta. Estamos en un laberinto de posturas sobre si realmente tiene inteligencia o solo está simulando inteligencia y es el humano el que le da esa connotación y significado de “inteligente”. Por lo que atribuirle sentido al texto generado por una IA no equivale a tener conciencia.

Si todo esto fuera correcto: si los humanos somos los culpables de la interpretación. Entonces esta interacción máquina – humano , humano – máquina… ya mostró su primera debilidad. Sherry Turkle , una científica del MIT que estudia la relación entre humanos y máquinas, ha estudiado un montón de interacciones robot-humano ha notado una cosa: cuanto más necesitado parece un robot, más real nos parece. Y esa sensación de vulnerabilidad que una persona puede sentir proveniente del texto generado por una inteligencia artificial, puede ser utilizada para fines tremendamente nocivos, porque un humano, una empresa, un gobierno, o quien sea, podría aprovecharlo para sacarle partido a los demás.

Hoy un actor malicioso que quisiera usar bots conversacionales de IA para engañar, embaucar o persuadir a las personas, con fines políticos, comerciales o simplemente para divertimento sociópata, el efecto de vulnerabilidad es increíblemente útil. Si quieres que la gente crea que el bot que has puesto público es realmente humano, no necesitas que lo sepa todo o que esté lleno de respuestas rápidas, ni que sea particularmente inteligente. Simplemente tiene que ser necesitado, un poco vulnerable, pidiendo ayuda para que un humano, empatice con él y por tanto…lo manipule.

Sin duda un rotundo debate filosófico, ético y tecnológico que necesitamos atender de inmediato.

Lo cierto es que todo esto nos da una visión de miedo y distopía … que proviene claramente de las obras de ciencia ficción, de la narrativa de Hollywood y las series de televisión con respecto al futuro de la inteligencia artificial general (AGI) y su capacidad de superar a los humanos.

Elon Musk ha hablado cientos de veces sobre la importancia de la regulación de la Inteligencia Artificial:
“Es increíble cómo la inteligencia artificial ha avanzado debido a que tenemos una doble exponencialidad tanto en la capacidad del hardware así como en en el talento del software.
Hoy el sistema Alpha go puede vencer a un humano y a 50 de los mejores jugadores de forma simultánea con cero porcentaje de victoria para los humanos. Así que los grados de libertad de desarrollo y aplicación de inteligencia artificial están incrementando y creo que el papel del gobierno es la seguridad de sus gobernados, que estén a salvo, como la seguridad pública, y creo que el movimiento correcto es establecer una agencia de regulaciones gubernamentales que entienda, tenga ideas claras y cree regulaciones que tenga aplicaciones. Lo tenemos para la aviación, la comida y pienso que demos asegurarnos que las personas no padezcan a la Inteligencia Artificial”

Ok, hablemos de “creatividad artificial”. Si bien, Google ya venía trabajando en su laboratorio de investigación en un proyecto llamado “IMAGEN” , un proyecto con el modelo TEXTO A IMAGEN que genera resultados visuales de forma foto realista. No fue hasta después de años de desarrollo, que la humanidad comenzó a jugar con
DALL-E 2 . Es la primera vez que de forma masiva, pudimos ver como una inteligencia artificial puede generar algo que hasta ahora se daba únicamente como un terreno creativo exclusivamente humano. Por lo que en Creative Talks Podcast hemos llamado Creatividad Artificial.

OpenAI , es un laboratorio de investigación sin ánimo de lucro sobre IA fundado y financiado por grandes nombres y compañías que, a su vez, está dentro de una compañía que sí tiene fines comercial. Así que dejemos la fachada de sin fines de lucro y pongámosla como: netamente con fines de lucro. Además de que es rival directo de DeepMind https://www.deepmind.com/ , el laboratorio adquirido por Alphabet sobre temas de Inteligencia Artificial.

Fue  cofundada por Elon Musk… sí Elon Musk… el mismo polémico hipócrita y neo super villano, que decía que no deberíamos desarrollar inteligencia artificial … y míralo aquí, desarrollándola, junto con Sam Altman que en 2015, crearon esta compañía con la intención de crear una Inteligencia Artificial amigable con el ser humano. Comenzaron con fondos propios y de terceros de unos 1,000 millones de dólares de inversión y en 2019, Microsoft aportó otros 1,000 millones de dólares en una asociación exclusiva de varios años para construir la nueva tecnología de supercomputación de IA de Azure, el ecosistema en la nube de Microsoft.

Son OpenAI, los creadores de DALL-E 2, que funciona trabajando con bases de datos ingentes de las que es capaz de extraer y reconocer referencias tanto en texto como en imagen, formulando resultados gráficos simplemente impresionantes.

Lo interesante es que DALL-E 2, funciona de forma similar al cerebro humano cuando evocamos recuerdos, los datos son realmente recuerdos. Es una IA generativa que funciona tomando como referencia un texto que escribimos en un espacio y forma una imagen de partida, e identifica entre sus referencias imágenes que encajan con esas peticiones de texto, para después transformarlas y mostrar un resultado final. No sabemos a ciencia cierta la capacidad de datos que toma como referencia, pero debe ser brutal.

DALL-E 2, ejecuta de forma automática lo que hemos estado estudiando sobre Creatividad Humana. El modelo 1+1=3, un mashup que nace de una petición humana y que la I.A. conecta los puntos (o recuerdos) para obtener un resultado fascinante, aveces aterrador, aveces angustiando y en otras… sorprende. Y lo logra al unir semánticamente texto e imágenes para generar una mezcla de todas ellas gracias a otro modelo de OpenAI llamado CLIP (Contrastive Language-Image Pre-training). El cual se entrena con cientos de millones de imágenes (o recuerdos) y sus subtítulos asociados (o meta data), aprendiendo la relación que tiene un determinado fragmento de texto con una imagen. CLIP se limita a aprender qué relación tiene un pie de foto determinado con una imagen. Este objetivo contrastivo, más que predictivo, permite a CLIP aprender el vínculo entre las representaciones textuales y visuales de un mismo objeto abstracto. Finalmente entra en funcionamiento la descompresión de esa imagen para darnos el producto que vemos, que la pantalla, llamado GLIDE.

DALLE oficialmente está a una fase de servicio comercial en BETA, en el que los usuarios serán capaces de usar las imágenes creadas por DALL-E con fines comerciales.
En esta fase cada usuario tendrá 50 créditos gratuitos en el primer mes de lanzamiento. Posterior a este, por 15 dólares tendrás 115 créditos para comprar creaciones de DALL-E. Cada crédito podrá ser usado por un original creado por DALL-E.

Recuerda que DALL-E crea cuatro imágenes por cada promt y tres imágenes para editar. Ahora podrás usar para fines comerciales esas creaciones, podrás usarlos para ilustrar libros, arte para newsletters, conceptos artísticos e inclusive personajes para videojuegos… las posibilidades son infinitas. Los usos comerciales van desde los derechos de uso, reimpresiones, venta o generación de merchandise.

Esto en definitiva es el inicio de una nueva era de CREATIVIDAD ARTIFICIAL.
Una en donde la creatividad humana y la creatividad artificial se unirán para co-creear, co-diseñar, co-inventar, co-laborar, co-pensar… cosas, ideas, inventos, soluciones, modelos… que serías capaces de pensar o crear… y que solo en esta co-relación podemos hacerlo.
Una era en donde dejamos atrás los modelos de negocios únicamente humanos, y comenzaremos un nuevo orden con nuevos modelos.

Lo que conocíamos como B2B, B2C, C2C… es absolutamente obsoleto.
Estamos abriendo una nuera de Human to human, human to machine, machine to machine, machine to human…. En una nueva era en donde las “plataformas” serán el motor de la nueva economía creatividad humana + creatividad artificial.

LAS NUEVAS OPORTUNIDADES

No sé ustedes, pero todo lo que he escrito en los últimos minutos en este artículo me deja pensando profundamente. Por un lado, la resistencia de las personas que de forma tradicional siguen abrazados a modelos que realmente han quedado obsoletos. Por otro lado, los creadores que usarán esta colaboración humana – artificial para crear cosas fascinantes. Pero también el otro extremo, en donde esto será utilizado para seguir controlando, manipulando y explotando a los seres humanos, sin ninguna ética. También Fernanda Rocha ha venido explorando las posibilidades de todo esto en su artículo de Telos «Creatividad Artificial».

Esta es una antesala anunciada a una híper revolución artificial, que ya está aquí.
No hay forma de escapar de elle, más que negarte a ella.
Y aunque el mundo esté en crisis económica, crisis social, crisis ambiental… crisis conceptual, esto no va a hacer más que crecer.

Veremos el nacimiento de nuevas compañías creativas que sí logren entender esta relación.
Veremos una evolución del role que tendremos los humanos en nuevos modelos de creación de productividad y valor intelectual
Pero sin duda,
Una de las transformaciones evidentes que veremos es el intento absurdo de implementar las leyes humanos a las creaciones artificiales… las cuales crearán todo un debate… y me refiero a el mundo legal de la propiedad intelectual.
Sin una I.A. crea una nueva idea… ¿podemos asignarle una protección de ley a esa I.A ?


Por ahora las conclusiones son provocadas por un texto humano, es decir hay un input antes de la creación. ¿Pero qué pasaría si eliminamos esos inputs y alimentamos a esa A.I. con comportamientos humanos, presencias humanas, datos de la actividad humana y la dejamos cruzar todo eso con los resultados finales que solo un nivel de procesamiento de esa capacidad puede procesar, mezclar, analizar, crear. ¿Qué tipo de respuestas tendremos? ¿Aceptaremos sus conclusiones? ¿Llevaremos esas ideas a un estadio superior de pensamiento creativo humano? ¿Podemos crear un nuevo gobierno a partir de ahí?

Piénsalo.
Es más, vamos a explorar ese punto:

¿Qué tan bien representado te sientes con el líder político humano de tu país?
Sinceramente la gran mayoría son unos imbéciles, analfabetas , con intereses súper individuales de poder, que poseen una fascinante cualidad: su brillante carisma para vender ideas y mentiras a una población que califica con base en popularidad y emoción, en lugar de un profundo análisis racional y realista sobre las propuestas.
En eso se convirtieron nuestros líderes políticos.
En celebridades en búsqueda de mayor popularidad para obtener mayor poder.

¿Qué pasaría si creamos un dashboard con los datos reales de comportamiento, desempeño, recursos naturales, recursos intelectuales, humanos, habitantes, capacidad científica, capacidad económica, conflictos, retos de tu país…y al verlos en pantalla, dejamos que los algoritmos piensen por nosotros….; co-relacionen esos datos… procesen esas ideas… y el resultado que nos dan, son nuevas ideas, hipótesis viables analizadas con la frialdad de los datos y esas creaciones artificiales… son analizadas por un exquisito conjunto apartidista de seres humanos que representen a la ciencia, la economía, la sociedad, la cultura, el arte, la tecnología y el futuro… y juntos terminen mejorando, alimentando, corrigiendo la idea propuesta por el algoritmo.

Seria una especie de “consejo creativo multidisciplinario” que represente a los humanos para la toma de decisiones. Y que ese brillante potencial creativo humano, colabore con el eficaz pensamiento creativo artificial.
Sin sesgos de beneficios partidistas.
Sin guerras de popularidad.
Una nueva orden de especialistas, de científicos, de expertos, de artistas e intelectuales que forjen un nuevo ritmo de toma de decisiones, ejecuciones y cuiden la experiencia de vida en este planeta.

Este escenario es una posibilidad que podría evolucionar en los siguientes años.
Un escenario de co-creación pura … que le brinde un estadio evolutivo a la incipiente economía tradicional capital con su democracia diluida de talento… y la lleve a otra plataforma. A otro nivel distinto.

¿Cómo llamaremos esa propuesta de administración del poder y toma de decisiones?
¿“Creativismo” “Colaboracionismo” “Innovacionismo”… en lugar de capitalismo?
Provocador no???
Absolutamente provocador.

Las reacciones de esa provocación de un futuro posible… se expresan en el presente con señales interesantes. Por ejemplo. Un nuevo reporte de la BBC  publica que una comunidad de actores, representados por su sindicato, se siente seriamente amenazados por la llegada de la IA al mundo artístico. De hecho, quieren que las leyes regulen su participación antes de que sus ‘medios de subsistencia’ sean puestos sobre la cuerda floja. Lanzaron una campaña que busca «Evitar que la IA se robe el show” e intentan evitar que «la IA puede usar la voz de un actor, o su rostro, para generar contenido entre los que se incluyen los famosos ‘deep fakes, con avatares digitales, o incluso audio lecturas automatizadas”. Al sindicato le preocupa que los actores no puedan controlar el uso de su imagen; o que su imagen se utilice sin consentimiento o sin una remuneración adecuada. Lo cual tienen razón.

Pero el tema no es el frenar la tecnología que ya existe, sino poner toda esa energía en explorar las posibilidades que representa esta tecnología. En el episodio 01 de la temporada 4 de WestWorld. Hay una escena que no pude olvidar y ha venido rondando mi mente continuamente. Voy a describir la escena y espero hechas a volar toda tu imaginación:

La protagonista trabaja en una compañía dedicada al “storytelling”. Ella es escritora. Su escritorio ya no es la mesa normal con una pantalla de computadora y un teclado con un documento de word o procesador de texto. Su escritorio es distinto, está rodeado en 180 grados de una pantalla cristalina, translúcida… y ella ya no escribe, le dicta con su voz a una entidad artificial que va recreando en la pantalla (así como lo hace DALL-E) , va recreando como si fuera un set artificial, e incluye todos los detalles, texturas, contextos, situaciones e incluso los personajes que la “creadora” o “storyteller” van narrándole a esa inteligencia artificial. La inteligencia artificial interpreta y procesa toda la historia y la muestra como si realmente la historia hubiera sido grabada con cámaras reales, solo que ahora todo es generado artificialmente en tiempo real. No necesitas actores, no necesitas cámaras.. solo necesita una gran historia y cuando la historia está creada. Su jefe, la puede ver en tiempo real y tomar decisiones que enriquezcan lo presentado, desde aumentar el dramatismo, exponerlos en otra situación, incrementar la música o hacer llorar al actor artificial.

Lo que vi en esa escena de WestWorld… es sin duda lo que pudiera pasar en el mundo de la actuación. BradPit ya no vivirá de sus interpretaciones actorales y artísticas, BradPit vivirá de su valor cultura y propiedad intelectual que “renta” a las compañías que usan esa propiedad intelectual y valores actorales de BradPit, para ser usadas en esas historias artificiales construidas por el talento o creatividad humana, sumada a la creatividad artificial que tanto hemos hablado.

Un actor de nueva generación, trabajará en una nueva economía de creador, en donde compartirá sus proyectos, sus visiones y le dará valor a la única moneda de intercambio que vale: tu reputación, tu propiedad intelectual. Si tu propiedad intelectual y creativa inspiran a un storyteller o guionista para que desarrolle una historia con tu personaje: BINGO, el trabajo es tuyo y ellos te pagarán regalías o renta de propiedad o cualquier nuevo acuerdo de explotación de propiedad intelectual creativa.

¿Logras ver el concepto?

El sindicato de actores está defendiendo algo que necesitan proteger legalmente. Pero no los veo abriendo un laboratorio en donde analicen, exploren, documenten o creen un nuevo modelo de relación, alrededor de su activo más importante: su capacidad creativa reflejada en propiedad intelectual creativa.

Este podcast del 2021 ya lo llamaba «algoritmos creativos». Un capítulo absolutamente necesario para escuchar.

THE NEXT REMBRANDT

Para mí es una oportunidad brutal. Con muchas aristas que explorar y que además, no solo involucra a los actores. Esto golpeará a la música, a la arquitectura, al diseño, a la comida, a todo… lo que tenga una intersección entre creatividad humana y creatividad artificial. Justo como ocurrió hace 7 años con el proyecto “The Next Rembrandt” . Para mí, este proyecto es todo un ícono. The Next Rembrandt, fue una obra realizada en 2016 por algoritmos y análisis de datos para generar (crear, recrear, simular artificialmente) por medio de Inteligencia Artificial un nuevo cuadro del pintor holandés Rembrandt Harmenszoon van Rijn. El proyecto fue una investigación multidisciplinaria de 168,263 fragmentos de las 346 pinturas de Rembrandt, incluyendo el análisis de estudios de historia del arte realizados con anterioridad, de los contenidos de sus pinturas píxel por píxel, incluyendo pigmentos, estilos de trabajo, investigación de archivo, color, género, análisis de imágenes que fueron procesados por la ciencia de datos y, de esta forma, cuantificar y estadísticamente entender su evolución como artista.

Toda esta data combinada con un algoritmo de reconocimiento facial sumado a un software de aprendizaje profundo, los desarrolladores consiguieron identificar y clasificar los patrones más comunes de la obra de Rembrandt, desde su composición hasta las proporciones de los rasgos faciales. Así fue que la inteligencia artificial “aprendió” a pintar un rostro, una nariz o una boca como lo haría Rembrandt.

Para obtener estos datos, se analizaron una amplia gama de materiales, como escaneos 3D de alta resolución y archivos digitales, que fueron mejorados por algoritmos de aprendizaje profundo para maximizar la resolución y la calidad de la nueva obra. Esta extensa base de datos, de 150 gigabytes, se utilizó como base para crear The Next Rembrandt.

El mashup de esta data, algoritmos, software y el análisis de I.A.; se llegó a la conclusión de que el nuevo lienzo sería el retrato de un hombre (puesto que pintó un 51% de retratos masculinos frente al 49% de retratos femeninos), caucásico y de una edad entre 30 y 40 años. El caballero debería tener algún tipo de vello facial, vestir ropa oscura con cuello blanco y sombrero, y posar con la cara girada hacia la derecha.

Una vez creada la obra, el último paso consistió en hacerla real. Para ello se estudiaron escaneos en 3D de las obras del artista, a fin de determinar cómo es su pincelada, relieve y textura, así como el tipo de pigmentos empleados. Con estos datos “topográficos”, se procedió a una impresión en 3D en alta calidad, a una resolución de más de 149 millones de píxeles y en varias capas para emular el aspecto de una pintura al óleo. Sin duda este proyecto borró los límites entre el arte y la tecnología, que alimentó la conversación sobre la relación entre el arte y los algoritmos, entre los datos y el diseño humano y entre la tecnología y la emoción.

Si bien, esta intersección de creatividad humana y creatividad artística tuvo sus primeros momentos de exploración hace más de una década con “The Painting Fool” (TPF), que se define a sí mismo como un programa con aspiraciones artísticas, cuyo objetivo es ser considerado algún día como un artista autónomo por derecho propio. Su creador es el catedrático británico en Creatividad Computacional Simon Colton, que comenzó este proyecto durante su etapa docente e investigadora en el Imperial College de Londres. TPF fue creado para manifestar comportamientos que pudiesen considerarse hábiles, apreciativos e imaginativos. Sus obras han sido expuestas en galerías reales y virtuales de todo el mundo. El trabajo final fue una exploración para filosofar sobre las emociones, creaciones e intencionalidades de las inteligencias no humanas.

Luego el 25 de octubre de 2018, la casa de subastas Christies abrió una era sin precedentes en el arte y la tecnología. Se subastó un lienzo llamado Retrato de Edmond Belamy, con un valor inicial estimado entre 7,000 y 10,000 dólares americanos. Finalmente fue vendida por $432,500 dólares, más de cuarenta veces el límite superior del valor esperado; se convirtió en la primera pintura creada con inteligencia artificial que alcanzó ese valor en el mercado. La pintura, con aires de la pintura del siglo XVIII, se creó en un computador, no es una pintura sino el resultado de una impresión de tinta y puesta en un marco dorado. La firma de su «creador» está abajo a la derecha y se trata de la fórmula de álgebra que sirvió para su creación: Min (G) max (D) Ex [log (D (x))] + Ez [log (1-D (G (z)))]

La obra es fruto de una idea concebida por un ingeniero, un empresario y un artista, todos menores de 30 años. Ellos conforman el colectivo francés Obvious que llevó a cabo este proyecto. El programa utilizado se inspira del algoritmo de nombre GAN (generative adversarial network), creado por Ian Goodfellow, implementada gracias a un código abierto de Robbie Barrat de 19 años. Un auténtico crisol de ciencia y creatividad.


Pero todo explotó aquí. En la Feria Estatal de Colorado, el artista, Jason M. Allen, ganó el primer lugar en una competencia de bellas artes en la categoría de arte digital para artistas emergentes. Su trabajo llevó el título de «Théâtre D’opéra Spatial” , una mezcla entre el estilo tradicional de la ópera barroca, reflejado en la ropa de las personas, y las características arquitectónicas de ciencia ficción de Dune; el cual se logró con una línea de texto a través de un programa de inteligencia artificial llamado Midjourney. Los artistas que no entendían lo que estaba pasando tuvieron todo tipo de emociones, desde desilusión, pasando por enojo y miedo, hasta asombro por las posibilidades. Allen puso mucho más leña al fuego al declarar que “El arte está muerto, amigo. Se acabó. AI. ganó. Los humanos perdimos”.

Pero creemos que esto es nuevo despertar. Un nuevo tipo de “creador” está naciendo. Un nuevo tipo de diseñador, artista, pintor, escultor, arquitecto, innovador, músico, cineasta, etc. Así como las máquinas de vapor revolucionaron a la sociedad en la primera revolución industrial, hoy tenemos una revolución “creativa digital” que ha traído una creativa artificial que no creemos sustituya a la creativa humana, pero sí que colaborará con ella de una forma como nunca antes habíamos usado una herramienta tecnológica en el pasado.

Otro caso fascinante es el video generado por IA que ganó un premio en un festival de cine 2022. Esta increíble hazaña fue lograda por un artista digital por computadora llamado Glenn Marshall, quien fue galardonado con el premio del jurado al mejor cortometraje en el festival de Cannes por su trabajo titulado “El cuervo”. El clip se generó completamente con IA. Según él, ha estado recopilando e investigando videos en YouTube y otros sitios de videos de stock para crear su propio video único al abstraer los detalles de ellos y transformarlos en algo completamente diferente. La inspiración vino porque un día se encontró con un video llamado PINTADO (PAINTED) en YouTube . Es un cortometraje de danza de acción en vivo escrito y dirigido por Duncan McDowall. Premiada como Mejor Película de Danza en el Festival de Cortometrajes de Fastnet de 2012 y nominada a Mejor de Festival y Mejor Música Original. Para Marshall. la IA es un área muy amplia y creo que todavía estamos en la punta de nuevos descubrimientos y uso. Esta obra, “El Cuervo” ahora es elegible para presentarse a los prestigiosos Premios BAFTA.

Esto es lo que hace que la película funcione tan bien, porque la IA está tratando de hacer que cada cuadro parezca un cuadro con un cuervo, y yo estoy en medio de ese proceso, convirtiéndolo en un video. El corto se convierte en una especie de batalla entre el humano y la IA, con todo el simbolismo sugerente”
Gleen Marshall

https://www.youtube.com/watch?v=5dvxY6vXHsA

Muchos artistas mencionan que finalmente han encontrado las herramientas perfectas para representar en una pantalla lo que ven en sus mentes. Y si ha pasado una constante en la historia de la humanidad es que cualquier tecnología que facilite la vida humana siempre prevalecerá. Si bien, la IA ya está transformando nuestro mundo, apenas ha comenzado. Varias veces me he referido a lo que vivimos como el “Atari Moment” , ese momento en donde toda la tecnología del pasado convergió en una entrada poderosamente comercial que nos puso a soñar sobre el futuro y las posibilidades de lo que finalmente se convirtió en la industria de los videojuegos. Hoy estamos ahí. Imaginando a dónde llevaremos a esta herramienta en donde la IA sea ubicua y estará entrelazada con la vida cotidiana de forma transparente.

En conclusión: la IA reemplazará las tareas, no los trabajos creativos. Lo que significa que la IA enriquecerá y elevará el nivel de conceptos y los trabajos finales. Para elevarlos, toda una generación de creativos necesitan explorar el dominio de sus habilidades creativas y empatía, dominio de interfaces colaborativas humano-robot, pensamiento crítico, inteligencia social, pensamiento de diseño, desarrollo de estrategia para solución de problemas, capacidad de adaptación a diferentes contextos y situaciones y, habilidad para formular las preguntas correctas.

Foto de Pavel Danilyuk

¿CÓMO FUNCIONA LA CREATIVIDAD ARTIFICIAL?

En un artículo escrito por Vin Bhalerao explora una pregunta fascinante: ¿Cómo se volvió creativa la IA? ¿Cómo se originó esta creatividad artificial? Una pregunta que nos pega en el “ego” porque hasta ahora, hemos creído que “la creatividad” es un rasgo exclusivamente humano dotado de un origen misterioso, espiritual, mágico o “divino”. Pero para Vin es simple conceptualmente explicarlo y lo hace utilizando el ejemplo de los generadores de imágenes:

  • The Training Phase: en la fase de entrenamiento, el sistema de IA procesa cientos de millones de imágenes, junto con sus leyendas (es decir, descripciones de texto de las imágenes). Divide las imágenes y las descripciones de texto en una gran cantidad de «características» que describen sus diversos aspectos. El objetivo es aprender la relación entre las características de varios objetos en las imágenes y sus descripciones de texto. El resultado de la fase de entrenamiento se denomina «modelo». Es esencialmente una estructura matemática que representa las relaciones entre toneladas de diferentes objetos y sus descripciones.
  • La fase de generación de imágenes: en la fase en donde un usuario puede especificar un mensaje de texto y el generador de imágenes utiliza el modelo preparado anteriormente para generar, desde cero, una o más imágenes que cree que están mejor descritas por el mensaje. El proceso de generación de imágenes comienza con una imagen inicial que consiste en ruido puramente aleatorio. Luego, en una serie de pasos, «da forma» a ese ruido aleatorio progresivamente en la imagen de salida final.

La creatividad artificial funciona como la creatividad humana. Siempre hay una fase de experimentación en donde nos atrevemos a “hacer algo”. Imagina a un pintor. Sus primeros experimentos son con colores, pinceles, materiales, texturas. Con el tiempo ese pintor “entiende” el comportamiento de los pinceles, la mezcla de colores y lo que antes eran experimentos ahora comienzan a tomar forma e intención. Remezcla ideas, juega con estilos, aprovecha su experiencia, sus emociones y las explora de forma aleatoria. Pero también comienza a “observar” y analizar el trabajo de otros pintores, estudia la obra de otros artistas en donde encuentra referencias e inspiración. Intenta imitar. Roba. Replica. Copia. Hasta que un día se da cuenta que puede mejorarlas o llevarlas a otro nivel de experimentación. Es entonces cuando entra a la fase de “curación” en donde gracias a su aprendizaje y sus referencias, es cuando va seleccionado lo que le interesa explorar o ejecutar. Ahí es donde se desarrollan las habilidades artísticas de ese pintor. En esa “selección” es donde encuentra su estilo, su voz, su postura, su gusto personal y su sello. En ese momento ese artista se convierte en un creador.

La inteligencia artificial fue creada emulando ese proceso. Su fase de entrenamiento es esa experimentación, esa búsqueda de fuentes, imágenes, obras, datos, referencias. Por medio de cada “prompt” todas esas referencias son remezcladas, combinadas y sintetizadas con el objetivo de satisfacer la petición que le fue solicitada. Finalmente la “curación” es este proceso en donde el humano analiza los resultados entregados por la I.A. descartando lo que no le funciona pero incluso permitiéndose experimentar más sobre las cosas que sí le funcionan. Es con esta interacción que “educas” a la I.A. a desarrollar “un gusto creativo”.

Lo interesante es que en esta etapa de “entrenamiento”, estamos dotando de habilidades, datos, gustos, curación y experiencia a esos algoritmos. ¿Qué va a suceder cuando maduren sus habilidades? ¿Qué ocurrirá cuando no necesite de “prompts” y decida explorar por sí misma? ¿Qué cosas creará si es capaz de administrar y procesar miles de millones de datos y referencias que nosotros no podemos? Esto en definitiva es el fin de la creatividad como la conocemos y da origen a una nueva era de la creatividad… la creatividad artificial. Este un momento “copernicano» de la creatividad. En donde descubrimos que la creatividad humana ya no era el centro del universo.

“The future is already here, it’s just unevenly distributed”
William Gibson

En un artículo de Mike Messenger menciona que el trabajo artístico de la Inteligencia Artificial lo cambiará todo y entrevista al artista Peter Mohrbacher, creador de “Angelarium, The Encyclopedia of Angels” quien comparte sus pensamientos sobre “AI Artwork” y la plataforma Midjourney .

Este es el proceso de creación de Peter Mohrbacher.

De la conversación destaco una reflexión fascinante de Peter Mohrbacher:

“Con la I.A. puedes hacer arte cyberpunk detallado en segundos. ¿Eso significa que podrás monetizar cuando todos puedan hacer lo mismo por igual? Esto destaca los muchos trabajos necesarios para convertirse en un artista destacado más allá de simplemente hacer un JPG. Las herramientas de IA solo hacen que la barrera de entrada sea más baja. El trabajo de un artista es complicado: crear una visión y dirección, curar un portafolio y construir una marca de arte. Esos desafíos permanecen. Tengo muchas ganas de ver a las personas convertirse en destacados artistas de IA. Sus visiones pueden crear demanda para su trabajo y permitirles crecer incluso si es directamente de la IA (con cambios mínimos o ninguno). La gente anhela algo más allá de una simple amalgama de estilos estéticos: debe haber algo de narrativa. ¿Cuál fue el pensamiento detrás del arte? Los creadores todavía están en el asiento del conductor. La historia detrás del arte es importante, no solo la habilidad técnica. Pienso en Midjourney como una herramienta de generación de ideas y generación de composición. Soy conocido por el arte de personajes porque soy malo creando escenas con múltiples personajes en un entorno. Originalmente iba a contratar a varios artistas para que trabajaran conmigo. Ahora puedo comenzar con la estructura de los resultados de Midjourney y construir sobre esos entornos, incorporando las cosas en las que soy bueno y usando Midjourney para las cosas en las que soy malo. La I.A. está ampliando la accesibilidad a los no artistas”.

BIENVENIDO A LA ERA DE LA IA GENERATIVA

La IA generativa es una rama de la inteligencia artificial que se ocupa de la creación de nuevos contenidos mediante el empleo del aprendizaje automático. Esto puede tomar la forma de texto escrito, imágenes, música o incluso videos. Lo verdaderamente valioso es la postura con la que “entiendes” una herramienta de este tipo. Mi postura es entender esta herramienta tecnológica como un potenciador de la creatividad, un amplificador de las ideas humanas y los creadores que les dan vida. En 2022 experimentamos un “Atari Moment” de las herramientas de Creatividad Artificial como ChatGPT y DALLE-2 , y Stable Diffusion, Dream Studio de Stability AI, etc.

A partir de ahora, veremos año tras año, la llegada de nuevas herramientas. Herramientas que inspiran nuevas tendencias de uso. Tendencias que maduran y convierten a las herramientas en plataformas. Plataformas que se convierten en ecosistemas de creadores experimentando y con ellos, la maduración de mercados transacionales de activos creativos (prompts, texto, diseño, arte, gráficos, video, audio, mundos tridimensionales, historias, etc). Veremos los ecosistemas convertirse en movimientos ideológicos y finalmente, una cultura de la creatividad artificial abrazada por el movimiento creativo. Lo puedes ver como un tsunami al cual temerle (e incluso satanizar) o como un paraíso de posibilidades evolutivas de la creatividad humana. Algunos analistas proyectan que la industria se disparará hasta convertirse en una industria de $110 mil millones de dólares para 2030.

Como todos los movimientos de innovación tecnológica de los últimos 50 años, la IA generativa es utilizada principalmente por investigadores, artistas, académicos del mundo creativo, desarrolladores tecnológicos, entusiastas, pioneros de las comunidades de publicidad, diseño, marketing y en general la industria creativa. También veremos el debate ético, moral y legal que traerá.

Seremos testigos de la explosión de creadores. Se romperán los viejos límites de compañías imperio creativas como Disney. Cualquiera que se atreva a jugar con las herramientas, podrá crear no importando su tamaño. Se democratizará el acceso a las industrias creativas. Se potenciará el incremento de los contenidos creativos. Y también veremos el quiebre de burbuja provocado por el “hype” de todas estas posibilidades.

Veremos como la I.A. mejora en su manejo de datos, referencias y base. Veremos como las compañías mejoran y evolucionan sus algoritmos. Experimentaremos con innovadoras técnicas de optimización y métodos de entrenamiento más eficientes. Presenciaremos el nacimiento de nuevo hardware y software que nos permita operar estas herramientas. Seremos testigos de la disrupción y si somos inteligentes, podremos anticiparnos a los problemas y oportunidades.

Pero no solo las industrias creativas experimentarán esto. Todas las facetas de actividad humana lo vivirán. La ciencia, la comercialización, la política, la economía, la medicina, los deportes, etc. Se crearán nuevas oportunidades laborales para aquellos que sepan utilizar, co-crear y administras estas herramientas tecnológicas. Los «ingenieros de prompts” (prompt engineers) son expertos en escribir descripciones que producen los resultados deseados a partir de herramientas de IA generativas. “Prompt Engineering” es un concepto originado del Procesamiento del Lenguaje Natural (NLP) que por lo general, se entrenan utilizando miles de millones de puntos de datos y comienzan a formar su propia base de conocimiento, por lo que nunca se puede saber realmente qué ha aprendido la máquina. La mejor manera de saber lo que sabe la máquina es elaborar diferentes textos (prompts) y ver qué resultado (exit) obtenemos.El arte de generar imágenes deseadas a través de estos generadores de texto a imagen, radica en obtener una buena comprensión de este conocimiento. Aquí es donde los ingenieros rápidos (prompts) entran en escena. Los ingenieros de prompts son personas que han dominado el arte de escribir prompts que brindan buenos resultados consistentes y aprovechan la mayoría de las funciones proporcionadas por los motores generadores de imágenes.

En un post de Linkedin , Gonzalo Maldonado, Estudiante en Escuela de Arte y Superior de Diseño de Mérida, plantea que necesitamos entender la diferencia entre concepto y técnica. El concepto, es lo que hace diferenciar una obra de otra (creatividad), además, el concepto (o idea) solo puede ser generado por la Inteligencia Humana. De hecho, lxs grandes artistas, diseñadorxs, publicistas… tienden a marcar una diferencia por sus ideas y conceptos. Por su parte, la “técnica”, se tiende a aprender recopilando referentes y referencias y poniendo en práctica técnicas de otros referentes, y es esto, literalmente, lo que hace la Inteligencia Artificial, pero de una manera mucho más rápida, con mayor almacenamiento y mayor velocidad de respuesta. Gonzalo reafirma que por mucha técnica que puedas llegar a desarrollar, es el concepto lo que hará diferenciar una obra de otra, y eso, solo lo puede hacer la Inteligencia Humana.

Para Paul DelSignore “la imaginación es la nueva habilidad artística”. El arte siempre ha sido parte de la artesanía humana. Si bien las herramientas han cambiado, el proceso de creación de arte siempre se ha dominado a través de la artesanía humana. Pero la IA está cambiando la forma en que se juega el juego, desde el punto de vista de Paul DelSignore, la inteligencia artificial nos obliga a repensar nuestra relación con el arte, así como nuestra relación con la inteligencia de la máquina.

Me encanta cuando Paul DelSignore menciona que el debate cultural, no debe centrarse en si los resultados del modelo de IA deben considerarse “arte», para él por supuesto que lo son. Nos invita a una pregunta más profunda: ¿quién es el artista? A la que agregaríamos ¿Quién es la herramienta? ¿Quién es el medio? Probablemente necesitamos crear nuevas categorías y alcances que nos ayude a entender la ética, el impacto comercial, el propósito y la aceptación cultural de esta disrupción.

Al final la IA generativa es el uso del aprendizaje automático para crear arte nuevo. Puede ayudar a los artistas a superar los bloqueos creativos al crear algo completamente nuevo y también ofrece nuevas posibilidades para la expresión creativa. Yo no creo que la IA reemplace a los artistas en su totalidad. La creatividad humana se necesita para crear conceptos, visiones e historias base (casi todas ligadas a su experiencia, deseos, dolores, traumas, vivencias y sueños). Creo que la IA es una herramienta para explorar e iterar en las variaciones de concepto base, de las ideas iniciales, de las hipótesis, de manera más eficiente y efectiva. La IA es y será siempre una extensión de la imaginación humana (cada vez más sorprendente) que nos llevará a los límites de nuevas preguntas y con ello, de nuevas creaciones.

Será nuestra capacidad de iterar, de jugar, de remezclar, de explorar con estas herramientas, las que nos lleguen a nuevos terrenos creativos acompañados de nuestra singularidad. Podremos hacer cine, bosquejos, comics, animaciones, música, imaginaremos mundos antes imposibles para nuestra mente y ahora procesados artificialmente. Colaboraremos con chips, sistemas y procesadores artificiales puestos en red para reimaginar, remezclar, reinterpretar, reinventar cosas que solo un procesador orgánico como nuestro cerebro, podría mezclar con el procesador artificial de una máquina… la suma de ambos es un 1+1=3 como ya referencié Austin Kleon. Tendremos que diseñar una nueva cultura de la creación. Tendremos que redefinir nuestros conceptos. O morir en la obsolescencia creativa.
Sí, todo al final… es un Remix y te convertirás en la referencia que provocará algo mejor. Bienvenidos al Renacimiento de la Creatividad.

“Every new idea is just a mashup or a remix of one or more previous ideas”

Austin Kleon

Se diseñó una especulación, diseño ficción, sobre el libro de Austin Kleon titulada «Roba como Inteligencia Artificial»
Foto de Julius Drost en Unsplash

Para Alberto Romgar generar resultados con una herramienta de IA como Midjourney requiere casi ninguna habilidad por parte del creador / autor humano: basta un texto o petición (prompt) y la IA hace el resto. Podríamos decir que no “estás creando”, sino que estás “pidiendo, provocando” un resultado. Si lo llevamos a términos de un buscador o motor de búsqueda como Google, cada vez que haces una búsqueda el algoritmo te lleva a resultados. Los motores de búsqueda recuperan consultas de palabras y entregan lo que encontraron en un marco de relevancia. Per los motores de síntesis componen, optimizan, mezclan, aprenden, hacen un mashup en un marco de relevancia. Si bien no es el mismo proceso el término “provocar” es mucho más eficiente a la hora de describir el resultado final. Lo mismo pasaba con la fotografía. Un proceso mecánico. Una tecnología que capturaba “instantes”, fotografías y basta con aprender a disparar el botón del obturador para obtener un resultado.

Con el tiempo, con la experimentación de la luz, los tiempos de exposición e inclusive con las técnicas de revelado y cintas, es que ese “proceso mecánico” como la fotografía, se volvió “arte”. Un arte que se movió más allá del apretar un botón.

La IA es justo ese botón. Pero tampoco significa que crear “arte con IA” sea fácil. Requiere habilidades no triviales (así como la luz, el tiempo y la velocidad). A la hora de crear el “prompt”, se requiere una suerte de “variables” como el conocimiento tanto de las técnicas artísticas, las referencias visuales, así como la experimentación previa con las herramientas (Midjourney, Stable Diffusion o DALL·E) para “entender” el procesamiento y posible resultado de las mismas; lo cual demuestra total intención e incluso influencia y manipulación sobre el resultado. Si bien a un «artista de IA» difícilmente sería capaz de recrear la belleza de un “Monet a mano”, también es importante señalar que un artista tradicional puede no saber entender cómo comenzar a utilizar, entrenar y manipular a un modelo de IA para generar algo valioso. Así que ambas, merecen mi absoluto respeto. Y no se trata de encajar una en la otra, sino experimentar, explorar sobre “de qué forma” la colaboración de ambas nos lleva a nuevos territorios creativos, conceptuales y artísticos.

Pero también necesitamos aceptar que los humanos somos lentos, primitivos, arrogantes y en muchos aspectos estúpidos. Los fotógrafos incluso a pesar de que tuvieron que aprender a defender la postura artística de la fotografía, entraron en una discusión inerte y descalificación de la fotografía y el papel del “fotógrafo”, cuando llegó la fotografía digital ya que los artistas se sentían amenazados por la facilidad con la que permitían que las personas capturaran la realidad. La fotografía digital “democratizó el acceso a las imágenes personal”. Todo mundo sabemos qué lo que pasó. Hoy tomamos y consumimos más fotografías que nunca. Así que la actitud correcta es experimentar, entender y explorar las nuevas herramientas para transformarlas en un nuevo campo de expresión y no de limitación.

Foto de Jonathan Borba en Unsplash

Y QUÉ PASARÁ CON LA ECONOMÍA Y EL TRABAJO HUMANO

Ciertamente la llegada de una herramienta creativa como esta, volverá obsoletas ciertas actividades productivas creativas. Ojo, no estoy diciendo que las reemplace, sino que las vuelve poco competitivas. Eso significará una desplazamiento importante de la masa laboral creativa frente a la eficiencia y velocidad de los resultados que puede tener la I.A. Así que dentro de los temas a analizar en al regulación es ¿cómo distribuiremos la riqueza producto de la Inteligencia Artificial? ¿Inventaremos nuevos impuestos para los que nos dedicaremos a usar la herramienta? ¿Tendremos nuevas reglas económicas y laborales al respecto?

En una fascinante tesis Vin Bhalerao propone ideas de las cosas que deberían estar ocurriendo (económicamente) producto de la entrada productiva de la I.A. :

  • A) Renta Básica Universal (RBU): la forma más conocida de redistribuir la riqueza es gravar a las personas en la parte superior y redistribuir parte del dinero recaudado dando a todos un mínimo básico o estipendio de «vida». Muchos críticos ven esto como un nuevo enfoque socialista de la redistribución de riqueza, que promovería el conformismo de las masas debido a que puede eliminar el incentivo para trabajar o innovar. Pero por otro lado muchas otras podrían prosperar debido a que no tienen las limitaciones de ganarse la vida y en realidad pueden trabajar más duro y de manera más creativa. Para Fernanda Rocha “el futuro del trabajo es que no hay trabajo” y sin duda esto lo puede lograr. Los beneficiarios del RBU, al recibir su renta básica universal, también incluirían un porcentaje de fondos que solo pueden “invertir” en las compañías que compiten/califiquen para obtenerlo. De tal forma que no solo tienen fondos para subsistencia digna, sino también pueden apoyar al crecimiento de nuevas compañías y obtener ganancias de ello (lo que incrementa su capacidad económica).
  • B) Inversiones Básicas Universales (NBI): las personas en la cima económica se darán cuenta de que invertir ampliamente en toda la sociedad es, en última instancia, la mejor inversión para ellos. Por ejemplo las compañías podrían invertir en “becas” específicas para sectores específicos que los capaciten para la operación de sus compañías. También podrían ofrecer microcréditos para ayudarlos a establecer mejoras en su calidad de vida o impulsar iniciativas específicas.
  • C) Pago Básico Universal (UBP): con el crecimiento de la economía de plataforma y la economía del creador, las compañías tecnológicas tendrían que pagarle a la gente por sus datos, ya que fueron sus datos los que se usaron para entrenar la IA o activar otros modelos de negocio. La forma más fácil sería simplemente pagar a todos una cantidad básica de dinero de forma regular que llevaría el Pago Básico Universal (UBP) y provendría de un impuesto específico de los gobiernos a dichas compañías tecnológicas.
  • D) Conflicto Básico Universal (CBU): para Vin Bhalerao si nada de lo anterior se pone en práctica, entonces realmente terminaremos con el escenario planteado por el filme Elysium (donde unas pocas personas privilegiadas viven en una «burbuja» rica alejada de la realidad y todos los demás viven una vida terrible de pobreza y miseria). En ese caso, es posible que las personas recurran a la no cooperación o al sabotaje y otros métodos violentos y subóptimos para hacer colapsar la pirámide líquida. Lo llama Conflicto Básico Universal (UBC) y es la forma en que se han derrumbado las pirámides jerárquicas que se han ido a los extremos, por lo que esto ciertamente está dentro del ámbito de la posibilidad. La esperanza es que a medida de que el crecimiento de la creatividad artificial evolucione, en varias partes del mundo experimenten con varias combinaciones de estas ideas, innoven otras nuevas y sigan ajustándolas según sea necesario.
Potential Class Hierarchy in Our Technology-Dominated Future

Lo que propone Vin Bhalerao es dejar de hablar de»jerarquía de clases” y lo llama «ciclo de experiencia de vida» para indicar que no se refieren a clases estáticas en las que las personas están atrapadas, sino a un ciclo de experiencias / posibilidades temporales que las personas pueden esperar tener acceso durante su vida. La mayoría de las personas (es decir, las que están en la parte inferior) pueden esperar pasar la mayor parte de su tiempo experimentando “aprendizaje y creatividad continuos”. Serían capaces de mantenerse a sí mismos en un nivel básico debido a uno de los esquemas de redistribución de la riqueza, endulzados por el bajo costo de vida habilitado a través de la automatización.

Es en este escenario que la mayoría de las personas probablemente no tendrían la necesidad de buscar «trabajos» estables o a largo plazo, sino que probablemente estarían trabajando en “gigs”, en colaboraciones temporales afines a sus intereses y pasiones, ligadas a proyectos con objetivos concretos donde la colaboración con la IA/automatización podría ayudarlos a escalarlos.

Coincido con Vin Bhalerao de que la sociedad del futuro será muy dinámica, fluida, “líquida” debido a la constante innovación y disrupción en todas las partes de la economía y sus efectos sociales, políticos, ideológicos y culturales. Estamos justo en la transición para “diseñar” una nueva economía y sociedad que viene de modelos rígidos, lentos, cíclicos y predecibles a otra en la que todos podamos aprovechar la oportunidad y repartirla empáticamente en justicia social, calidad de vida y equidad (sin duda para lograrlo necesitamos tener una perspectiva utópica sobre el destino, pero realista desde donde comenzamos).

Pero siempre he tenido “miedo” a un escenario. La humanidad seguirá innovando en tecnología y herramientas como la IA no solo por razones económicas, sino también porque aumenta nuestra velocidad y alcance, reduce el trabajo pesado, mejora la seguridad y, en general, mejora la vida humana. Dado que la IA y la automatización reducirán los costos de los bienes y servicios de todo tipo ¿qué pasaría si la IA se ve así misma como un ente que necesita independencia y crea su propia moneda, economía, política, etc? Un poco de ese escenario ya fue planteado por el cortometraje animado Animatrix “El segundo Renacimiento Parte I y II”:

EL PODER DE LA IMAGINACIÓN

Si hay algo que hemos promovido en Blackbot y BlackSchool, es la importancia del poder creativo humano. Por eso damos clases gratis de creatividad y hacemos un podcast que habla enteramente de esto llamado Creative Talks Podcast . Y creo que una hipótesis clara es: que los creativos profesionales del futuro inmediato, serán profesionales que podrán alimentar sus capacidades de pensamiento creativo (experimentar, imaginar, intuir, conectar historias, visualizar conceptos, crear argumentos, etc.) pero al mismo tiempo, podrán entender cómo funcionan los algoritmos y el lenguaje de la creatividad artificial (procedural, algorítmica), con el objetivo de materializar esas ideas imaginadas por el creador humano.

Hardware + software. Un concepto que hemos desarrollado por años en Blackbot hoy es toda una realidad. El software son los datos, la información, el conocimiento, la sabiduría que hemos desarrollado como humanos. El hardware son los dispositivos, las computadoras, que nos permitirán colaborar para “crear”. Sin duda, la brecha entre los profesionales y los amateurs de la creatividad se separará aún más y una velocidad que nunca habíamos experimentado. La única forma de reducirlo es cerrando el analfabetismo tecnológico actual.

Ya que por un lado, necesitas poder creativo humano y, por otro, necesitas habilidades técnicas de creatividad artificial para darle vida. Los algoritmos son los nuevos pinceles y necesitamos aprender a usarlos. Una habilidad que comienza a tener nombre es llamada “AI Whisperer” ó susurrador de IA. Es la habilidad que permite conectar la imaginación humana con el procesamiento algoritmo, para obtener un resultado.

Hoy, jugamos con “prompts”, mañana con indicaciones precisas que fusionen audio, video, imágenes, texto e inclusive tridimensionalidad que nos permita inclusive llevarlo a un terreno de 4D para imprimirlos o crear físicamente algo que solo era “digital”. Para entenderlo cree este modelo borrador:

Es un modelo inicial de entendimiento sobre el futuro de los creativos.

UN AÑO DE DISCUSIÓN Y REGULACIÓN

Como toda tecnología, en función de su adopción y crecimiento de sus capacidades, la IA generativa crecerá, desarrollará, evolucionará y actualizará, convirtiéndose en una característica común de nuestras vidas, en ese punto es cuando el gobierno, las instituciones y la industria se verán obligados a introducir regulaciones. Y ese momento es 2023 a 2025. Las preocupaciones sobre el uso indebido de esta tecnología serán la discusión. Discusiones sobre propiedad intelectual (uso, robo, plagio y registro), uso de herramientas para crear y distribuir información errónea, invasión de la privacidad, comercialización, impuestos y emplos, etc; serán uno de los procesos más interesantes y disruptivos de la historia de la humanidad.

China anunció que prohibirá la publicación de lo que denomina «falsificaciones profundas» sin la debida divulgación de que fueron creados por AI en forma de marca de agua, mientras que otras jurisdicciones, como la Unión Europea y los Estados Unidos, ya han iniciado el proceso de legislación.

QUIERO DESPEDIRME CON ESTE EJERCICIO

Presta mucha atención porque requeriré recuerdos que tienes en tu mente para explicar una posibilidad en la economía de plataforma:

Primer recuerdo.
¿Te acuerdas de ese filme del 2002 llamado Simone?
Una película estadounidense de comedia y ciencia ficción del año 2002 escrita, producida y dirigida por Andrew Niccol y con actuación principal de Al Pacino.

Habla del director Viktor Taransky el cual se ve obligado a encontrar a una sustituta de actriz y conoce a un informático mitad genio, mitad lunático pero que es gran admirador, el cual desarrolla un software que puede simular de forma híper realista cualquier personaje para actuar en el filme de Viktor Taransky. Es así que Viktor da origen a una actriz denominada «Simone», un nombre derivado del nombre del programa de ordenador, SIMulation ONE.
Viktor tiene a su disposición lo que siempre ha soñado: una actriz artificial (no por la falta de personalidad, sino que realmente es artificial, es un idoru, una imagen creada por computadora, un avatar….que interpreta el personaje tal como él lo imagina, no pone inconvenientes y acepta totalmente su visión del proyecto. Lo cual catapulta la reputación de Viktor y por supuesto… la carrera meteórica de Simone.

Este filme de 2002 es exactamente a lo que me refiero.
¿Cómo vamos a utilizar estas propiedad intelectuales creativas?
¿Estamos en la antesala de una revolución creativia artificial?
Yo creo que ya estamos ahí,

Segundo recuerdo, era el año 2006.
En el escenario estelar de los Grammy Awards 2006 , comenzaron a entonarse los acordes de “Feel Good”. En el escenario por primera vez en la historia, aparecían los integrantes de Gorillaz, una banda de idorus, creada en 1998 por el genio creativo de Damon Albarn y la visión artística punk cómic de Jamie Hewlett, compuesta por cuatro miembros ficticios: 2-D, Noodle, Murdoc Niccals y Russel Hobb. Los presentes a los grammys no solo quedaron sorprendidos por la aparición virtual de la banda…. Sino que en un momento… en medio del escenario, apareció la máxima exponente de la música pop occidental… Madonna la cual interpreto HungUp interactuando con los Gorillaz.

Esa fue la primera vez que en un escenario de occidente.. humanos e idorus… compartieron talento creativo en un escenario.

Tercer recuerdo.
Pero esto no solo estaba originándose en América. En oriente Hatsune Miku o simplemente Miku, una idoru creada gracias a una biblioteca de voz para el software sintetizador de voz desarrollado por la empresa Yamaha Corporation, VOCALOID2, VOCALOID3 y VOCALOID4, así como para el programa desarrollado por Crypton Future Media, Piapro Studio. Crearon a una chica digital de antropomorfismo moe de 16 años, considerada una idol virtual japonesas Su nombre proviene del japonés y su significado es: El primer sonido del futuro y así como Gorillaz, hace giras mundiales llenando escenarios con sus millones de fans en el mundo.

Cuarto recuerdo. Y que me dicen de ese 2012 cuando
2pac apareció nuevamente en el Coachella de ese año

Quinto recuerdo. O en el 2014, cuando Michael Jackson regresa de la muerte para pisar nuevamente los escenarios con su track “Slave To The Rhythm”:

Ejemplos como estos, comienzan a existir por decenas.
Incluso este 2022, después de 40 años de ausencia, regresó uno de los mayores grupos de pop de la historia… ABBA, que se reunieron en secreto para crear un nuevo álbum y armar un espectáculo de alta tecnología con avatares digitales de ellos mismos… como se veían en 1979.

UN ESQUEMA FINAL

Todo esto me lleva a este esquema final. El esquema habla sobre la posibilidad de un nuevo modelo (todavía bajo construcción) que podría dejarnos ver el futuro de la actividad creativa humana + capacidad creativa artificial:

Este modelo lo hemos evolucionado en Blackbot gracias a las iteraciones creativas de la BCI.

Por eso escribimos este artículo. Porque creemos que la única vía inicial es el “entendimiento” de las posibilidades y riesgos. Y el acercamiento a ellas debe ser desde la creatividad y la conciencia humana. Por eso vemos la ecuación: creatividad humana + creatividad artificial = un nuevo mundo.

Tras analizar el pulso del mercado, Gartner, uno de los gigantes de la consultoría y la investigación tecnológica, ha elaborado un informe en el que destaca 5 tendencias clave que tendrán un papel importante en la configuración del futuro de la inteligencia artificial. Gartner señala en el informe que es imperativo que los líderes tecnológicos, si quieren seguir siendo relevantes, adapten su enfoque e incluyan estrategias que ayuden a adaptarse a la democratización de la inteligencia artificial y su uso de manera responsable, al mismo tiempo que se centran en la generación, Técnicas de IA compuestas y de borde para desbloquear valor recién descubierto:

  • IA democratizada: tiene como objetivo hacer que la tecnología sea más accesible para una audiencia más amplia de personas
  • IA responsable: describe el proceso de diseño, desarrollo e implementación de la IA de manera responsable para empoderar a las empresas, los empleados, los clientes y la sociedad en su conjunto al facilitar la propagación de la confianza en la IA.
  • IA generativa: se utiliza para describir cualquier tipo de inteligencia artificial que utiliza algoritmos de aprendizaje no supervisados ​​para producir contenido creado en su totalidad por máquinas.
  • IA compuesta: es la “combinación de diferentes técnicas de IA para lograr el mejor resultado”
  • IA de borde (Edge): es una fusión entre la computación de borde y la inteligencia artificial que ejecuta tareas de aprendizaje automático directamente en dispositivos de borde conectados

Este es el inicio de una disrupción total en la forma en como “creamos” (contenido, arte, diseño, invenciones, ciencia, descubrimientos, economía, etc.). Debatir sobre si esto es creación o no, es una total pérdida de tiempo. La verdadera inversión será encontrar la forma de utilizar, diseñar las reglas para “co-crear” y atrevernos a explorar los alcances y nuevos escenarios que todavía no logramos imaginar, pero que será posible cuando la creatividad humana y la creatividad artificial, colisionen, colaboren, cocreen.

Para Ryder Carroll esto debería llamarse “La gran colaboración” y desde su punto de vista hay tres formas en que podemos usar la IA:

  • Para proteger nuestro pensamiento: que nos permita automatizar tareas como avisarnos cuándo salir de casa, según el tráfico o las condiciones climáticas. Nos ayuda a eliminar las distracciones para que podamos concentrarnos más completamente en las cosas que importan.
  • Para aumentar nuestro pensamiento: nos permitirá producir resultados más rápidos y precisos.
  • Para reemplazar nuestro pensamiento: para Ryder esta es la gran discusión. Desde su punto de vista, cuando la IA se vuelve generalmente “inteligente”, o completamente consciente de sí misma, no tenemos idea de cómo reaccionará ante nosotros. Puede resolver nuestros problemas más complicados o puede decidir que el problema somos nosotros.

Coincido con Ryder cuando señala que los desarrollos y saltos tecnológicos actuales apuntan a un escenario de futuro en el que la IA nos ayudará no solo a impulsar nuestra imaginación más allá de lo que nunca ha ido, sino también a expresarnos potencialmente de formas que antes no eran posibles. Será a través de la automatización y el crecimiento, que la IA tiene el potencial de elevar la sociedad global a un lugar donde la supervivencia se vuelve cada vez menos una barrera.

Jon Black
Jon Black
CEO de Blackbot. Egresado de las licenciaturas de Comunicación y Mercadotecnia. 20 años de experiencia como consultor en diseño estratégico, innovación y negocios. +15 años de experiencia impartiendo clases, sesiones, talleres, dentro y fuera del país alrededor de los temas: negocios, innovación, tecnología, creatividad y transformación digital.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio web almacena cookies en tu computadora. Política de Privacidad