Este miércoles 10 de mayo, Google ha introducido su más reciente innovación en el campo de la inteligencia artificial: el PaLM 2, un conjunto de modelos de lenguaje de última generación que prometen revolucionar el panorama de la generación de contenido, y que se postula como un competidor directo del GPT-4 de OpenAI. Este avance fue anunciado en el evento Google I/O, celebrado en Mountain View, California, donde se reveló que PaLM 2 ya se utiliza en 25 productos de Google, entre ellos su asistente de inteligencia artificial conversacional Bard.
PaLM 2, que responde a las siglas de «Pathways Language Model«, es un conjunto de modelos de lenguaje de gran tamaño (LLMs) que ha sido entrenado en un enorme volumen de datos. Es capaz de predecir la próxima palabra en una secuencia de texto, generando de esta forma el texto más probable después de una entrada de texto proporcionada por humanos. El modelo se basa en una técnica de aprendizaje automático desarrollada por Google denominada «Pathways».
De acuerdo con Google, PaLM 2 es capaz de soportar más de 100 idiomas y tiene la capacidad de realizar «razonamiento», generación de código y traducción multilingüe.
Entre las características de PaLM 2, se destacan:
- PaLM 2 tiene capacidades multilingües mejoradas para expandir el uso de Bard a nuevos idiomas y también tiene aplicaciones en el ámbito médico con Med-PaLM 2.
- Las características de Workspace para Gmail, Google Docs y Google Sheets están utilizando las capacidades de PaLM 2 para mejorar la eficiencia en el trabajo.
- Med-PaLM 2, entrenado por equipos de investigación en salud con conocimientos médicos, puede responder preguntas y resumir información de una variedad de textos médicos densos. Logra resultados de vanguardia en competencia médica y fue el primer modelo de lenguaje grande en desempeñarse a nivel «experto» en preguntas de estilo de examen de licencia médica de EE. UU. Med-PaLM 2 se abrirá a un pequeño grupo de clientes de Cloud para recibir comentarios más adelante en el verano (del emisferio norte) y así identificar casos de uso seguros y útiles.
- Sec-PaLM 2 es una versión especializada para casos de seguridad, que utiliza IA para analizar y explicar el comportamiento de scripts maliciosos.
- El PaLM API estará disponible para desarrolladores o clientes que quieran usar el modelo en Vertex AI con privacidad, seguridad y gobernanza empresariales.
- PaLM 2 también está impulsando el Duet AI para Google Cloud, que es una herramienta colaborativa para el aprendizaje y construcción de proyectos.
Durante su presentación en la conferencia Google I/O 2023, Sundar Pichai, CEO de Google, indicó que PaLM 2 está disponible en cuatro tamaños: Gecko, Otter, Bison, Unicorn. El tamaño más pequeño, Gecko, puede funcionar en un dispositivo móvil. Además de Bard, PaLM 2 es responsable de las características de IA en Docs, Sheets y Slides.
La capacidad de PaLM 2 para realizar tareas de razonamiento, traducción y generación de código es una de las características más destacadas de este modelo. No obstante, a pesar de estas impresionantes capacidades, los primeros informes sugieren que PaLM 2 puede no superar a GPT-4 en todas las áreas. Ethan Mollick, profesor de Wharton que escribe con frecuencia sobre IA, ha encontrado que la versión de PaLM 2 de Bard parece tener un rendimiento inferior al de GPT-4 y Bing en diversas pruebas de lenguaje informales.
A pesar de su reciente lanzamiento al público, la familia de modelos de lenguaje PaLM ha sido notable por su gran tamaño desde el principio. El primer PaLM contaba con 540 mil millones de parámetros. Los parámetros son variables numéricas que funcionan como el «conocimiento» aprendido del modelo, permitiéndole hacer predicciones y generar texto a partir de la entrada que recibe.
Aunque un mayor número de parámetros implica generalmente más complejidad, no hay garantía de que se utilicen de manera eficiente. A modo de comparación, el GPT-3 de OpenAI, lanzado en 2020, cuenta con 175 mil millones de parámetros. OpenAI no ha revelado el número de parámetros en GPT-4.
El modelo PaLM 2 de Google ha sido entrenado en «un conjunto diverso de fuentes: documentos web, libros, código, matemáticas y datos conversacionales». A pesar de la relevancia de esta información para comprender el funcionamiento y las capacidades de PaLM 2, Google se ha mantenido reservado en cuanto a los detalles específicos de estos datos.
Al igual que con otros grandes conjuntos de datos de modelos de lenguaje, es probable que el conjunto de datos de PaLM 2 incluya una amplia variedad de material con derechos de autor utilizado sin permiso y material potencialmente dañino extraído de Internet.
El entrenamiento de un modelo de IA en estos datos influye decisivamente en su rendimiento, lo que ha llevado a expertos a abogar por el uso de conjuntos de datos abiertos. Estos permitirían oportunidades de reproducibilidad científica y escrutinio ético, fundamentales para la transparencia y la responsabilidad en el campo de la inteligencia artificial.
Sin embargo, PaLM 2 no es el final de la historia para los LLMs. En la conferencia de Google I/O, Pichai mencionó que el nuevo modelo de IA multimodal llamado «Gemini» está actualmente en entrenamiento. Mientras la carrera por la dominancia en IA continúa, los usuarios de Google en Estados Unidos y en otros 180 países (curiosamente excluyendo Canadá y la Europa continental) pueden probar PaLM 2 como parte de Google Bard, el asistente de IA experimental.
Este nuevo avance en la inteligencia artificial tiene implicaciones importantes para el campo del SEO. Con la capacidad de generar texto de manera más precisa y natural, las herramientas de contenido basadas en IA como PaLM 2 pueden cambiar la forma en que se crea y optimiza el contenido para los motores de búsqueda. Sin embargo, la falta de transparencia en torno a los componentes clave del modelo y los datos de entrenamiento subraya la importancia de seguir los principios éticos y las mejores prácticas en el uso de estas potentes herramientas.
Fuentes de la información:
- “Google AI PaLM 2 – Google AI” (Google AI) https://ai.google/discover/palm2
- Ockier N, “Google Presenta Su Algoritmo PaLM: Pathways Language Model Con 540 Mil Millones de Parámetros” (Nicolas Ockier, April 5, 2022) https://ockier.es/seo-updates/google-presenta-su-algoritmo-palm-pathways-language-model-con-540-mil-millones-de-parametros/
- “OpenAI Presents GPT-3, a 175 Billion Parameters Language Model” (NVIDIA Technical Blog, July 7, 2020) https://developer.nvidia.com/blog/openai-presents-gpt-3-a-175-billion-parameters-language-model/
- Ghahramani Z, “Introducing PaLM 2” Google (May 10, 2023) https://blog.google/technology/ai/google-palm-2-ai-large-language-model/