La inteligencia artificial generativa (IAG), masificada en el último año por ChatGPT, cambió la creación de contenido publicitario y llevó a otro nivel la interacción entre marcas y consumidores a través de intercambios más humanos y con personalización a escala.
Ante los próximos procesos de eliminación de las «cookies» de terceros en la web, la IAG también se ofrece como una alternativa ante los desafíos que representa el mantenimiento de la privacidad de datos.
Martín Carniglia, director ejecutivo de inteligencia aplicada para las Américas en R/GA, una de las principales agencias globales de marketing directo e interactivo, analiza en la siguiente entrevista de iProfesional el impacto de la inteligencia artificial generativa en el negocio y la comunicación publicitaria.
-¿Cuáles son los principales impactos de la inteligencia artificial generativa en la publicidad?
-Hasta el momento estamos viendo dos tipos de impacto positivo en el proceso creativo. Por un lado, es posible generar eficiencias al ahorrar tiempos o nutrir fases de pensamiento estratégico e ideación.
Por ejemplo, nos podemos apoyar en la inteligencia artificial para generar ideas alternativas para copies, mensajes creativos o hasta enfoques de planificación. Por otro lado, puede utilizarse para asistir en la producción de creatividad personalizada a escala.
Por ejemplo construyendo motores que, a través de un «input» en texto o imagen, generen versiones alternativas de una campaña de piezas gráficas o incluso de video, considerando adaptaciones a distintos tipos de audiencias.
ChatGPT popularizó la inteligencia artificial generativa.
Desde nuestra perspectiva, la inteligencia artificial, al igual que otras tecnologías, tiene la facultad de potenciar la creatividad, siempre y cuando se realice la curva de aprendizaje inicial.
-¿Cómo puede la IAG ayudar a que la creatividad sea efectiva?
-La inteligencia artificial permite generar múltiples versiones de un mismo mensaje (en texto o audiovisual), pero requiere un tiempo de entrenamiento e iteraciones que al comienzo pueden ser más costosas incluso que la producción manual a escala.
Apoyarse en la inteligencia artificial se puede concebir de la misma manera que ocurre al formar a un nuevo miembro de nuestro equipo: imaginemos que tomamos a un pasante en nuestra compañía, al principio tendremos que invertir tiempo adicional para su inducción, dándole contexto, enseñándole cómo preferimos hacer las cosas.
Pero a medida que ese pasante va entendiendo, aprendiendo, y asimilando más conceptos, empieza a aumentar su capacidad de aportar un punto de vista distinto y de tomar cada vez más tareas. Con la inteligencia artificial ocurre algo similar, requiere un nivel de inversión inicial de tiempo hasta poder empezar a generar eficiencias.
-¿Existe la tentación de producir grandes cantidades de contenido fácilmente con IAG que derive en una saturación publicitaria?
-No creo que la saturación publicitaria pueda estar directamente asociada al uso de inteligencia artificial. Es cierto que podemos imaginar escenarios donde la publicidad pierda cierta impronta de originalidad y se torne en algo enlatado o demasiado estandarizado.
Pero eso dependerá más de la capacidad creativa o visión estratégica de quien haga uso de la tecnología para generar el contenido. La saturación publicitaria generalmente depende de otros factores, como una incorrecta segmentación o configuración de frecuencia en las campañas dentro de cada medio o plataforma. No es tanto el qué, sino el cuánto, cuándo y para qué.
Copilot es una herramienta de inteligencia artificial de Microsoft.
-¿Cómo utilizan las empresas argentinas a la IAG para crear contenido?
-El uso más generalizado de Generative AI en Argentina o en nuestra región se sigue dando más a nivel de procesos intermedios. Se usa ChatGPT para nutrir ideas o «brainstormear».
Se crean borradores o versiones draft de cómo puede lucir un camino creativo versus otro apoyándose en plataformas como Midjourney, DALL-E, StableDiffusion o Runway.ML.
Se crean prototipos rápidos de «landing pages» o aplicaciones utilizando herramientas como Copilot. Se obtienen ejemplos de copies o textos publicitarios a través de Jasper o Copy.ai, o se utiliza la inteligencia artificial para acelerar procesos de «research» de audiencias o entendimiento de grandes volúmenes de datos.
Son menos las empresas que ya están utilizando IAG para producir contenido o productos que estén pensados para ver la luz o ser expuestos a usuarios finales. En estas semanas, por ejemplo, se produjo mucho revuelo con los anuncios de lanzamiento de Sora, nuevos modelos de OpenAI que permitirían generar piezas audiovisuales a partir de texto con resultados asombrosamente realistas e imaginativos.
Se trata de un proceso natural que, en algún momento, decantará como cualquier fase evolutiva en la adopción de nuevas tecnologías. Pero también existen aplicaciones de inteligencia artificial que ya conviven en la forma de conectar con los consumidores, como ser sistemas de chatbots inteligentes que resuelven consultas o permiten consumir contenido de forma más ágil.
-¿La IAG puede ser una alternativa ante los desafíos renovados de mantener la privacidad de datos?
-Inicialmente, la IAG trae más desafíos que soluciones a los temas de privacidad. Pensemos, por ejemplo, en el riesgo que existirá para sistemas que utilicen biometría para lograr el acceso a aplicaciones o cuentas personales.
Martín Carniglia
Si una inteligencia artificial puede replicar en forma tan fiel la cara, los gestos o la voz de un ser humano, ¿cómo podrán los mismos sistemas detectar si lo que está del otro lado de la pantalla es una persona real o generada en forma artificial?
Lo hemos visto en películas como Misión Imposible, pero ya tenemos que plantearlo como una posibilidad concreta. Desde otro punto de vista, también debido a la necesidad de resguardar la privacidad de los datos es que se recomienda como buena práctica el uso de estas tecnologías en infraestructuras o sistemas cerrados, propios.
Por ejemplo, en lugar de utilizar la versión «pública» de ChatGPT y correr riesgos de exponer datos sensibles, trabajar en instancias privadas, cerradas al acceso externo, lógicamente pagando por ese beneficio adicional.
-¿Cómo se eleva la interacción entre marcas y consumidores a través de intercambios más humanos y con personalización a escala?
-Es importante, al menos por el momento, balancear la generación automatizada de contenido con la incorporación de elementos menos estandarizados. Para la mayoría de las compañías será muy difícil o llevará más tiempo poder apoyarse plenamente en la automatización.
Pensando en otro ejemplo, hoy es muy fácil generar sistemas conversacionales o chatbots que mantienen una interacción inicial con cualquier usuario que quiere realizar una consulta o queja.
Pero es muy posible que el cliente o usuario del otro lado de la pantalla en alguna instancia quiera y exija un trato más personalizado, que se vea y se sienta no simplemente en la forma de escribir.
Querrán entablar una conversación relajada con una persona de carne y hueso, que los comprenda y los ayude. ¿Llegaremos a una instancia en la que incluso al hacer una videollamada no estemos seguros si del otro lado hay una persona o un avatar?
Es posible, pero aún estamos muy lejos de que eso suceda, con lo cual hay que acompañar el avance general de la tecnología con los tiempos, barreras y capacidades propias de adopción que cada compañía tiene.
-¿Se necesita una mayor regulación global para gestionar la adopción generalizada y responsable de la IAG?
-Definitivamente. Tenemos que entender que hablar de regulación no tiene por qué ser sinónimo de limitar el avance de la tecnología, sino de establecer un marco de reglas claras sobre lo que sí se puede hacer, lo que no debe estar permitido, y sobre todo el tipo de comunicación transparente que las compañías deben tener hacia los consumidores.
Del mismo modo que estamos acostumbrados a ver «disclaimers» o leyendas en las piezas publicitarias que aclaran si las imágenes fueron retocadas digitalmente, también deberá existir una forma clara de entender si lo que estamos viendo fue generado por un humano, una máquina, o la combinación de ambos.
De otra forma existen riesgos enormes de caer en la proliferación de «fake news«, violaciones a los derechos de propiedad intelectual o publicación de datos sensibles de personas o compañías.