25 ene 2022

¿Reemplazará la IA a los redactores? La evolución y el futuro de la redacción de contenido con IA

A medida que avanzan la generación de texto y el aprendizaje automático, hay mucho debate sobre si los escritores de contenido serán reemplazados por la miríada de herramientas de redacción de IA que ofrecen funcionalidades de autocompletado.

GPT-3Rytr, Jarvis, Shortly, CopyAI, Frase, etc. - la lista de nuevos productos con la funcionalidad de autocompletado que aparecen en el mercado es interminable. Todos estos productos cuentan con un botón "Escribir por mí". Haces clic en ese botón y sale un párrafo de texto.

Se siente casi como magia.

Como investigador de inteligencia artificial, he estado siguiendo los avances en esta área durante los últimos 5 años, y es fascinante cómo algo que comenzó como una forma de autocompletar tus mensajes de texto se ha convertido en una tecnología que ahora puede producir casi novelas completas.

¿Pero eso significa que la IA puede reemplazar a los redactores de contenido? ¿Está la escritura humana obsoleta? ‍La respuesta es complicada.

Para responder a esa pregunta, primero tenemos que descubrir cómo funciona realmente el autocompletado para la redacción de contenido. Armados con esa información, podemos analizar los compromisos que trae esta tecnología de inteligencia artificial y determinar si los redactores de contenido deben preocuparse por todas estas herramientas de escritura de IA en el mercado.

Cómo evolucionó el Autocompletado para la Redacción de Contenidos

Con todo el entusiasmo en torno a los nuevos avances de inteligencia artificial como GPT-3, es fácil olvidar cómo la tecnología de texto predictivo (autocompletado y autocorrección) ha evolucionado a lo largo de las décadas.

Sí, esta es la función en tu antiguo iPhone 5 que te corrige de "iz" a "es", y también es cómo Google te sugiere (a veces de manera divertida) completaciones para tu búsqueda.

Confiar en N-Gramas para Escribir por Ti

Puede que te sorprenda, pero la tecnología de autocompletado puede rastrearse hasta 1948. Desde entonces, ha ayudado a los redactores de contenido a revisar la ortografía y corregir su escritura.

Echemos un vistazo a los humildes orígenes del autocompletado.

Muchos de los primeros sistemas de autocompletado se basaban en el concepto de un modelo de lenguaje. Básicamente, era un modelo que podía predecir la siguiente palabra basándose en un historial de palabras.

El primer modelo de lenguaje, el mencionado por primera vez por Claude Shannon, se llamaba el modelo de n-gramas. Una aplicación de n-gramas era predecir cuán probable es que un conjunto de palabras aparezca en el texto que estás escribiendo.

Entonces, por ejemplo, si escribes "¿Puedes venir por favor" (las palabras de historial), el modelo de n-gramas predirá que la siguiente palabra "aquí" es muy probable (por ejemplo, un 80% de probabilidad). Entonces, tu teléfono te ofrecerá completar tu frase con la palabra "aquí".

¿Cómo saben los n-gramas qué palabras son probables?

Puedes crear un modelo de n-gramas simplemente contando la cantidad de veces que la frase "¿Puedes venir por favor aquí" apareció en un corpus de texto de alta calidad (también llamado datos de entrenamiento). Si esta frase aparece mucho, significa que "aquí" es probablemente una finalización correcta; de lo contrario, es poco probable que sea una frase.

Este conteo de ocurrencias se aplica a todas las posibles frases en el corpus, y esto resulta en una "tabla de conteos".

En el ejemplo anterior, la primera fila tiene el conteo más alto porque ocurre en el lenguaje escrito por humanos más a menadamente. La última fila está escrita en un inglés esotérico y no ocurre mucho en el lenguaje moderno, así que tiene un menor conteo.

Con esta tabla, cada vez que alguien escribe, el programa mirará esta tabla para encontrar la frase que coincide con el conteo más alto. Esta mejor coincidencia es esencialmente una predicción de cuál debería ser la próxima palabra. Esta coincidencia también permite al programa darte una estimación de la probabilidad (por ejemplo, un 80% de probabilidad de una finalización correcta basada en el corpus).

Y ahí lo tenemos: la magia detrás de muchas herramientas de autocompletado se reduce a contar palabras.

En resumen y muy simplificado, así es como construyes un modelo que podría predecir la siguiente palabra más probable dadas ciertas palabras de historial. Esta es la base de cómo funcionan los sistemas de autocorrección y autocompletado.

Entonces, ¿los redactores de contenido van a ser reemplazados por un modelo de n-gramas?

Definitivamente no.

Hay un problema fundamental con los n-gramas: representan el lenguaje de una manera dispersa. Para decirlo simplemente, esto significa que si tienes muchos datos, tu tabla se vuelve demasiado grande. Ahí es donde entran en juego las redes neuronales como GPT.

Ir más allá de una tabla con GPT

Lo que usamos hoy ha avanzado mucho desde el modelo de n-gramas.

La inteligencia artificial moderna para el autocompletado se basa en redes neuronales, que son mucho más potentes que los modelos de n-gramas. Aunque son más sofisticadas, las redes neuronales se basan en el mismo principio fundamental de conteo estadístico.

El todopoderoso GPT-3 (Transformador Generativo Preentrenado v3) es un modelo de lenguaje de redes neuronales grande desarrollado por OpenAI y ahora es la columna vertebral de todas las herramientas de escritura de autocompletado lanzadas recientemente en el mercado. GPT-3 es parte de una tendencia en el procesamiento del lenguaje natural (PNL) hacia grandes redes neuronales preentrenadas.

Con GPT-3, ya no usamos ingenuamente una tabla para almacenar todas las frases posibles, sino que almacenamos un resumen comprimido de ella en los pesos de su red neuronal. Esto nos permite entrenar modelos en miles de millones de frases y oraciones que habría sido inviable ajustar en una sola tabla.

Entonces, ¿cómo escribe GPT-3 por ti?

Al igual que los n-gramas, cuando escribes una palabra o frase, GPT-3 intentará encontrar la palabra más probable para completar tu frase basándose en el corpus de texto con el que fue entrenado.

Pero no se detiene ahí. Una vez que predice la siguiente palabra que vas a escribir, lo hará en un bucle y continuará prediciendo la siguiente palabra hasta haber escrito un párrafo. Así es como "genera" un párrafo para ti.

Pero espera, si todo lo que hace GPT-3 es buscar probabilidades derivadas de contenido escrito previamente, ¿significa esto que GPT-3 simplemente repite lo que ha leído o es verdaderamente creativo?

Esta es una pregunta filosófica complicada que está presente en las discusiones actuales sobre contenido generado por IA.

Mitos sobre la Redacción de Contenidos con IA

¿Puede la Redacción de Contenidos con IA Ser Creativa?

Muchos críticos han señalado que GPT-3, como todos los modelos de IA, solo puede generar texto que ha visto antes. Afirman que la escritura de IA carece de creatividad y que estas herramientas son buenas solo para spammear contenido regurgitado.

Mientras que esta visión solía ser válida, ya no es del todo cierta.

Es fácil afirmar que un modelo de n-gramas de 1948 simplemente repetiría contenido existente porque literalmente almacena todos sus datos de entrenamiento en una tabla y "genera" texto mirando a través de frases que ha visto.

Pero debido a que GPT-3 es un compresor altamente eficiente de su texto de entrenamiento, se ve obligado a desarrollar reglas y patrones de contenido escrito: no siempre recuerda la frase exacta de los datos de entrenamiento almacenados en su memoria.

Aunque algunas frases podrían generarse textualmente, muchas de las frases producidas son novedosas. Una rápida búsqueda en Google del texto generado te mostrará que la mayoría de las generaciones son originales.

Si crees o no que GPT-3 (o cualquier modelo de IA y herramientas de IA) puede producir una escritura original depende del debate y de cómo defines originalidad. Después de todo, los humanos han aprendido de grandes obras previas y han creado derivaciones de Shakespeare, así que, ¿son los humanos realmente tan originales?

Mientras la IA moderna produce texto que puede ser similar a lo que existe, también puede producir texto que te sorprenderá.

Depende de los redactores de contenido y editores humanos sacarle el máximo partido a esa sorpresa.

Un mejor uso del autocompletado debería involucrar a los escritores filtrando y eligiendo el mejor texto generado por IA, o usándolo como fuente de inspiración para romper el bloqueo del escritor.

¿Puede la Redacción de Contenidos con IA Tener Emoción?

Una de las preocupaciones sobre la redacción de contenidos con IA es que producirá textos sin alma y sin emoción.

Esta es otra declaración amplia que carece de matices - y quizás derivada de nuestra concepción de ciencia ficción de la IA como robots enlatados sin sentimientos.

Una vez más, modelos simples de IA como el n-grama es improbable que produzcan texto emocional porque carece de poder representacional, tiene un límite práctico en cuanto a cuánto puede aprender.

Pero debido a que GPT-3 aprende de un gran corpus de texto con más contexto, a menudo puede imitar el sentimiento y tono de escritura. Esto significa que si escribes una frase como "Hoy me siento triste", el modelo de IA intentará encontrar las palabras más adecuadas para reflejar ese sentimiento en el texto generado.

(El párrafo que acabas de leer arriba fue autocompletado por completo por Jenni AI sin ediciones. Ha aprendido a coincidir mi tono y estilo de escritura de párrafos anteriores.)

Un estudio publicado en ICLR 2020 muestra que los generadores de texto neuronal incluso pueden imitar demasiado a menudo y comenzar a volverse repetitivos. Sin embargo, imitar no es lo mismo que tener emoción.

Como escritor, todavía necesitas estar a cargo del tono y la emoción general de tu escritura. Aunque la IA puede producir texto que refleje el sentimiento humano, no tiene la experiencia empírica de lo que es ser humano - no es una inteligencia corporizada.

Recuerda, al igual que los modelos de n-grama, GPT-3 está entrenado en un corpus de textos (principalmente de internet y producidos por un redactor humano).

No ha visto ni experimentado nada más de lo que un humano típico experimenta; nunca sabrá cómo sabe una hamburguesa con queso, ni podrá empatizar plenamente. Según OpenAI, no puede responder preguntas con exactitud relacionadas con el mundo físico, como "Si pongo queso en el refrigerador, ¿se derretirá?".

Esta es una limitación inherente de los modelos de lenguaje modernos que vendrán en los próximos años, al menos hasta que la IA tenga un cuerpo físico.

Para la redacción de contenido, entender esta limitación es crítico.

Esto significa que para aprovechar verdaderamente el poder de la IA para la redacción de contenidos, necesitamos proporcionar orientación y retroalimentación al modelo de IA para dirigirlo en la dirección correcta.

Por qué IA + Humano es el Futuro de la Redacción de Contenido

Estas desventajas pueden llevar a muchos a ser escépticos sobre los avances en la redacción de contenido con IA o temer que nuestro futuro estará lleno de 

¿Listo para revolucionar tu escritura de investigación?

Regístrese hoy para obtener una cuenta gratuita de Jenni AI. Desbloquee su potencial de investigación y experimente la diferencia por usted mismo. Su viaje hacia la excelencia académica comienza aquí.