Está en la página 1de 23

Traducido del inglés al español - www.onlinedoctranslator.

com

9-723-434
REV : JUNIO 2 7 , 2 0 2 3

AN DY WU

MATTHIGGINS

MI AO MI AO ZHANG

H AN GJI ANG

Guerras de IA

Aunque ChatGPT todavía tiene mucho margen de mejora, su lanzamiento llevó a la dirección de Google a declarar un
"código rojo". Para Google, esto fue como activar la alarma de incendio. Algunos temen que la empresa se esté acercando a un
momento que las mayores empresas de Silicon Valley temen: la llegada de un enorme cambio tecnológico que podría trastocar
el negocio.

— Nico Grant y Cade Metz enLos New York Times, 21 de diciembre de 2022

Ahora Google, la empresa que ayudó a ser pionera en la era moderna de la inteligencia artificial, descubre que uno de sus
rivales más antiguos está probando su enfoque cauteloso hacia esa misma tecnología. El mes pasado, Microsoft Corp. anunció
planes para infundir a su motor de búsqueda Bing la tecnología detrás del chatbot viral ChatGPT, que ha cautivado al mundo
con su capacidad de conversar de forma humana.

— Miles Kruppa y Sam Schechner enEl periodico de Wall Street, 7 de marzo de 2023

En noviembre de 2022, en medio de un creciente consenso de que la inteligencia artificial (IA) generativa daría
forma a la próxima generación de informática, el laboratorio de investigación OpenAI, con sede en San Francisco, lanzó
ChatGPT, un chatbot generador de texto impulsado por IA que se puso a disposición del público en el chat. .openai.com.
El lanzamiento captó una atención generalizada y, en los meses siguientes, OpenAI pareció saltar al liderazgo de la
comercialización al ofrecer una gama de nuevos productos de IA generativa como aplicaciones orientadas al usuario e
interfaces de programación de aplicaciones (API) orientadas al desarrollador.

En enero de 2023, Microsoft y OpenAI firmaron un acuerdo de 10.000 millones de dólares que ampliaba su
asociación exclusiva sobre la tecnología subyacente, Generative Pretrained Transformer (GPT), un tipo de modelo de
lenguaje grande (LLM) construido con una arquitectura de red neuronal basada en transformadores y capaz de generar
nuevos texto que era en gran medida indistinguible de la escritura humana. Microsoft continuaría suministrando a la
startup potencia informática efectivamente ilimitada desde su nube Azure, mientras que la tecnología y el
reconocimiento de marca de OpenAI ayudarían a mantener a Microsoft en el centro del nuevo auge de la IA generativa.
Microsoft señaló que pronto comenzaría a implementar las tecnologías OpenAI en todo su conjunto de productos,
desde sus aplicaciones de productividad Microsoft 365 hasta su motor de búsqueda Bing.1

En julio de 2023, Silicon Valley estaba mirando a Google para ver cómo respondería el gigante de las búsquedas y
supuesto líder técnico en IA. Los investigadores de Google habían inventado la arquitectura transformadora

El profesor de HBS Andy Wu, el investigador asociado Matt Higgins, el estudiante de doctorado de HBS Miaomiao Zhang y el estudiante de doctorado Hang Jiang (MIT)
prepararon este caso. Este caso fue desarrollado a partir de fuentes publicadas. La financiación para el desarrollo de este caso fue proporcionada por Harvard Business School
y no por la empresa. Los casos de HBS se desarrollan únicamente como base para la discusión en clase. Los casos no pretenden servir como respaldo, fuentes de datos
primarios o ilustraciones de una gestión eficaz o ineficaz.

Copyright © 2023 Presidente y becarios de Harvard College. Para solicitar copias o solicitar permiso para reproducir materiales, llame al 1-800-545-7685, escriba
a Harvard Business School Publishing, Boston, MA 02163 o visite www.hbsp.harvard.edu. Esta publicación no puede digitalizarse, fotocopiarse ni reproducirse,
publicarse ni transmitirse de otro modo sin el permiso de Harvard Business School.
723-434 Guerras de IA

eso hizo posibles los avances generativos demostrados por GPT. Google tenía una década de experiencia desarrollando e
implementando tecnologías de inteligencia artificial y aprendizaje automático (ML) en sus productos, pero gran parte de su
trabajo de inteligencia artificial se realizó internamente y entre bastidores. Los avances en IA habían estado potenciando
silenciosamente productos de Google como Search y Ads durante años, pero la mayor parte del trabajo del producto era
interno y poco había penetrado en la conciencia pública. De hecho, hasta 2022, el liderazgo de Google había sido
deliberadamente cauteloso a la hora de revelar el alcance de su progreso en IA y abrir al público las herramientas
experimentales de IA de Google. ¿Estaba realmente preparada la IA generativa para aplicaciones orientadas al usuario? ¿Estaba
el público, por no hablar del departamento de relaciones públicas de Google, preparado para los cambios y controversias que
podría desencadenar una IA más visible y activa? ¿Qué tuvo que ganar o perder Google en esta salva inicial de las guerras de la
IA? Lo más urgente es ¿cómo respondería Google a las medidas de OpenAI y Microsoft para comercializar la inteligencia
artificial en forma de nuevos productos y servicios generativos en lo que se estaba convirtiendo en la mayor narrativa de las
grandes tecnologías de 2023?

Google
El proyecto de inteligencia artificial de Google, Google Brain, se inició en 2011 como una colaboración exploratoria entre el
compañero de Google Jeff Dean, el investigador de Google Greg Corrado y el profesor visitante de ciencias de la computación
de Stanford, Andrew Ng.2Inicialmente, Google Brain se centró en el desarrollo de redes neuronales como tecnología de
inteligencia artificial de uso general. Google Brain desarrolló DistBelief, un sistema interno de aprendizaje automático
patentado para entrenar de manera eficiente redes neuronales de aprendizaje profundo.3Google perfeccionó internamente
DistBelief con el tiempo hasta que finalmente lo lanzó al público como una plataforma de desarrollo de código abierto,
TensorFlow, en 2015.4TensorFlow jugó un papel decisivo en el desarrollo de redes neuronales de aprendizaje profundo, tanto
dentro como fuera de Google. Durante años, TensorFlow fue la herramienta más popular del mundo para aplicaciones de
inteligencia artificial (IA) y aprendizaje automático (ML).

Desde sus inicios, la investigación y el enfoque de Google Brain hacia la IA nunca estuvieron lejos de los productos de
Google. Una lista de los productos de Google que hicieron uso de los avances en inteligencia artificial y aprendizaje automático
de Google Brain, o cualquier detalle sobre cómo se implementaron, no era de conocimiento público, pero artículos de
investigación públicos y publicaciones de blogs documentaron el uso del aprendizaje automático en productos como Google
Translate.5y Google Maps,6entre otros.

Google Brain no era el único interés en IA de Google. Desde 2011, Google adquirió varias empresas de inteligencia artificial,
algunas de las cuales se incorporaron a equipos existentes en Google y otras operaron como subsidiarias. En marzo de 2013,
Google adquirió DNNresearch, una startup de redes neuronales profundas fundada por el profesor Geoffrey Hinton de la
Universidad de Toronto.a, uno de los académicos pioneros del enfoque de aprendizaje profundo.7En abril de 2013, Google
adquirió Wavii, una aplicación para iPhone que utilizaba procesamiento de lenguaje natural y aprendizaje automático para
convertir contenido de la web en conocimiento semántico estructurado por tema, después de una guerra de ofertas con Apple.8
Google continuó adquiriendo nuevas empresas con experiencia en IA y ML a lo largo de los años, más de 30 desde 2009, con
adquisiciones relacionadas con la IA por un total de más de 3.800 millones de dólares en 2020.9

En enero de 2014, Google adquirió el laboratorio de inteligencia artificial DeepMind, con sede en el Reino Unido, por más de
500 millones de dólares.10DeepMind, que era conocida por usar juegos para probar y entrenar sus IA, fue noticia cuando su
programa AlphaGo venció a un campeón mundial humano en Go, un complejo juego de mesa de estrategia a veces comparado
con el ajedrez en 2016. DeepMind operaba como una empresa independiente de Alphabet, organizativamente distinta de la
división que albergaba a Brain, hasta abril de 2023, cuando las dos se combinaron bajo el paraguas de Google Research.11

a En mayo de 2023, Hinton renunció a su puesto en Google para hablar sobre los peligros de la tecnología. En una entrevista,
Hinton dijo: "No creo que deban ampliar esto más hasta que hayan entendido si pueden controlarlo".

2
Guerras de IA 723-434

Además de crear el marco TensorFlow, Google realizó una serie de avances importantes en el área del
procesamiento del lenguaje natural (NLP), modelos de lenguaje grandes (LLM) y herramientas de preentrenamiento que
sentaron las bases para los Transformadores Generativos Preentrenados (GPT). ). En 2017, Google introdujo una nueva
arquitectura de red, Transformer, que se basaba en un nuevo mecanismo de atención para entrenar redes neuronales,
"prescindiendo por completo de la recurrencia [computacionalmente costosa] y las convoluciones".12En 2018, Google
abrió BERT (Representaciones de codificador bidireccional de Transformers), una técnica para el entrenamiento previo
de PNL que ha sido ampliamente adoptada por LLM posteriores.13Transformers demostró ser un paso crucial en el
surgimiento de chatbots de alta calidad con tecnología LLM, como GPT-3.14

Tras el anuncio de OpenAI en 2020 de que GPT-3 tendría licencia exclusiva para Microsoft, Google intensificó su
trabajo público en LLM.15,bEn abril de 2022, los investigadores de Google publicaron el modelo Pathways Language
Model (PaLM) de 540 mil millones de parámetros entrenado con un sistema Google Brain.dieciséis

A finales de 2022, Google invirtió 300 millones de dólares para adquirir el 10 % de la startup de inteligencia artificial Anthropic y
asegurar el compromiso de Anthropic de utilizar Google Cloud como proveedor de nube preferido.17Anthropic fue fundada como una
corporación de beneficio público en 2021 por un grupo de ex empleados de OpenAI liderados por Dario Amodei. Amodei, anteriormente
jefe de seguridad de IA de OpenAI, y el resto del equipo fundador de Anthropic supuestamente abandonaron OpenAI debido a
"diferencias sobre la dirección del grupo después de que Microsoft aceptara una inversión histórica de mil millones de dólares en 2019".
18Anthropic llamó a su chatbot Claude.

En enero de 2023, los informes indicaron que Google presentaría un conjunto de productos de inteligencia artificial
generativa durante los próximos meses.19Google añadió una declaración de misión a su sitio web de IA que resumía su
opinión de que la tecnología debería utilizarse de forma conservadora y en colaboración abierta con otros (ver
Exhibición 1). En marzo de 2023, Google lanzó su nuevo chatbot, Bard (verAnexo 2).20

Competidores

Abierto AI

Fundado como un instituto de investigación sin fines de lucro en 2015, OpenAI se propuso avanzar en la inteligencia
artificial general (AGI) "de la manera que sea más probable que beneficie a la humanidad en su conjunto, sin las
limitaciones de la necesidad de generar retorno financiero". El director de investigación fundador de OpenAI fue el
experto en aprendizaje automático Ilya Sutskever, ex miembro de Google, y los copresidentes fundadores del grupo
fueron Sam Altman y Elon Musk. En su fundación, OpenAI recibió mil millones de dólares en compromisos de un grupo
de destacados inversores y empresas de Silicon Valley, incluidos Altman, Musk, Reid Hoffman, Jessica Livingston, Peter
Thiel, Amazon Web Services, Infosys y YC Research.21

En febrero de 2019, OpenAI lanzó Generative Pre-trained Transformer 2 (GPT-2), un modelo de lenguaje que podría
aprender nuevas tareas (como componer texto "original" en un estilo particular) mediante el uso de la autoatención,
basándose en la capacidades experimentales del GPT-1, que nunca se lanzó públicamente. A pesar de ser un gran
avance en el campo del modelado del lenguaje, pocos se dieron cuenta fuera de los círculos de investigación de la IA.

En marzo de 2019, OpenAI anunció que se reestructuraría en dos organizaciones: OpenAI Nonprofit, que seguiría
siendo una 501(c)(3) que operaría según sus estatutos originales, y OpenAI LP, una organización "limitada".

b En octubre de 2021, los investigadores de Google publicaron GLaM (Modelo de lenguaje generalista) con 1,2 billones de parámetros, aproximadamente siete
veces más grande que GPT-3. En enero de 2022, los investigadores de Google publicaron LaMDA (Modelos de lenguaje para aplicaciones de diálogo), una
familia de modelos de lenguaje neuronal basados en Transformer especializados para el diálogo con hasta 137 mil millones de parámetros previamente
entrenados en 1,56 billones de palabras de datos de diálogo público y texto web.

3
723-434 Guerras de IA

La asociación sin fines de lucro sería supervisada por la organización sin fines de lucro. La nueva estructura pretendía
atraer nuevos inversores sin comprometer su misión: los beneficios para los inversores del LP tendrían un límite del 10
por ciento de la inversión.22En julio de 2019, Microsoft anunció que invertiría mil millones de dólares en OpenAI y se
convertiría en el proveedor exclusivo de nube para OpenAI, colaborando en una plataforma de hardware y software
para incorporar AGI dentro de Microsoft Azure.23

En junio de 2020, se abrió la API GPT-3 (en versión beta privada) para investigadores seleccionados.24A las pocas
semanas de su lanzamiento, GPT-3 se estableció como el más poderoso y útil entre los modelos de lenguajes grandes
(LLM) y el primero en ofrecer una idea de la usabilidad general a través de una API pública.25El lanzamiento de GPT-3 en
el verano de 2020 marcó un punto de inflexión en el desarrollo de la inteligencia artificial basada en lenguajes. Poco
después, el término “IA generativa” empezó a aparecer habitualmente en los medios.

En septiembre de 2020, Microsoft anunció que obtendría la licencia exclusiva del modelo GPT-3 de OpenAI. Los
términos de la exclusividad eran tales que OpenAI podría continuar ofreciendo entradas y salidas a desarrolladores
externos a través de su API pública, pero solo Microsoft tendría acceso al backend y podría usar el modelo de datos y el
código subyacente de GPT-3. en sus productos.26Para la comunidad de investigadores y observadores de IA que
esperaban que OpenAI eligiera el código abierto del modelo, el acuerdo con Microsoft fue a la vez una decepción y una
confirmación de sus peores temores sobre el cambio en el estatus de organización sin fines de lucro de OpenAI. Un
analista tituló su publicación sobre el acuerdo como: "Cómo OpenAI vendió su alma por mil millones de dólares".27Un
periodista escribió: “No está claro exactamente cómo o si la estructura de 'beneficios limitados' de OpenAI cambiará las
cosas en el día a día para los investigadores de la entidad. Pero, en general, nunca hemos podido confiar en los
capitalistas de riesgo para mejorar la humanidad”.28

OpenAI lanzó ChatGPT, una interfaz de chatbot construida sobre GPT-3.5Cque cualquiera podría usar, en noviembre de
2022. Según se informa, OpenAI gastó más de 540 millones de dólares en el desarrollo de ChatGPT solo en 2022, una cifra que
refleja los altos costos de entrenar nuevos modelos de lenguajes grandes y ayudó a explicar la continua dependencia de OpenAI
de Microsoft para obtener potencia informática y dinero en efectivo.29

En enero de 2023, OpenAI y Microsoft anunciaron una extensión “plurianual y multimillonaria” de su asociación con
una nueva inversión de Microsoft.30Los términos del acuerdo no fueron revelados, pero se informó ampliamente que la
inversión de Microsoft valía 10 mil millones de dólares, y circularon rumores de que Microsoft recibiría el 75 por ciento
de las ganancias de OpenAI hasta que asegurara el retorno de su inversión y una participación del 49 por ciento en la
empresa.31Microsoft también se convertiría en el socio exclusivo de la nube para OpenAI en el futuro y comenzaría a
implementar los modelos de OpenAI en sus productos empresariales de inmediato. "En esta próxima fase de nuestra
asociación, los desarrolladores y organizaciones de todas las industrias tendrán acceso a la mejor infraestructura,
modelos y cadena de herramientas de IA con Azure para crear y ejecutar sus aplicaciones", dijo el presidente y director
ejecutivo de Microsoft, Satya Nadella.32En cuestión de meses, Microsoft había implementado parte de la tecnología de
OpenAI en su motor de búsqueda Bing y anunció planes para implementar más funciones de IA en su cartera de
productos. “La expectativa de Satya es que estemos superando los límites de la IA, y lo haremos en todos nuestros
productos”, dijo Eric Boyd, ejecutivo responsable del equipo de plataforma de IA de Microsoft, en una entrevista a
principios de 2023.33

A medida que OpenAI profundizó sus vínculos con Microsoft e impulsó la comercialización de la IA generativa, su transformación de una
organización sin fines de lucro a una con fines de lucro irritó a los críticos, incluido al menos uno de sus donantes originales. En marzo de 2023, Elon
Musk tuiteó: “Todavía estoy confundido en cuanto a cómo una organización sin fines de lucro a la que doné ~$100 millones de alguna manera se
convirtió en una capitalización de mercado de $30 mil millones con fines de lucro. Si esto es legal, ¿por qué no todo el mundo lo hace?”34

c Los principales lanzamientos de OpenAI se numeraron GPT-n: GPT-2 (febrero de 2019), GPT-3 (junio de 2020) y GPT-4 (marzo de 2023). GPT-3.5 fue
una designación informal, no un lanzamiento oficial, que refleja las mejoras realizadas en el modelo entre 2020 y finales de 2022.

4
Guerras de IA 723-434

OpenAI ofreció varias de sus tecnologías a desarrolladores externos a través de su servicio API. A principios de 2023, estos
incluían Access GPT-3, DALL-E 2 (generación de imágenes basada en mensajes) y Codex (un conjunto de herramientas para
convertir lenguaje natural en código). Varias aplicaciones de terceros ya habían comenzado a desarrollarse en las plataformas
de OpenAI: GitHub Copilot (propiedad de Microsoft) se basó en la plataforma Codex para crear una poderosa herramienta
predictiva de autocompletar para programadores, y Duolingo usó GPT-3.5 para interpretar la entrada del usuario y
proporcionar correcciones gramaticales en francés. en su aplicación de instrucción de idiomas.35

En marzo de 2023, OpenAI lanzó GPT-4 (verAnexo 3). Este modelo de próxima generación demostró capacidades de
conversación mejoradas, capacidad de respuesta a la dirección del usuario, potencial para entradas basadas en imágenes y
precauciones de seguridad para evitar consejos dañinos o contenido inapropiado. Con el lanzamiento de GPT-4, OpenAI publicó
puntos de referencia sobre el rendimiento relativo de GPT-3.5 y GPT-4 en una variedad de pruebas estandarizadas (el examen
uniforme de la barra, LSAT, GRE y pruebas AP de temas específicos, desde química hasta literatura inglesa). ). En la mayoría de
las pruebas, GPT-4 superó a todos los demás modelos, a menudo de manera significativa, logrando lo que OpenAI llamó
"rendimiento a nivel humano en varios puntos de referencia profesionales y académicos".36
Detrás de escena, se informó que GPT-4 era más eficiente desde el punto de vista computacional y rentable que su
predecesor, beneficios que OpenAI presumiblemente había logrado a través de avances en técnicas de entrenamiento y
arquitectura de modelos. Los investigadores que leyeron la documentación técnica de GPT-4 en busca de información
sobre cómo se lograron esos avances (una práctica común con el lanzamiento de un nuevo modelo en los días
precomerciales de los laboratorios de investigación de IA) encontraron solo el siguiente pasaje:

Dado tanto el panorama competitivo como las implicaciones de seguridad de los modelos a gran escala como GPT-4,
este informe no contiene más detalles sobre la arquitectura (incluido el tamaño del modelo), el hardware, la
computación de entrenamiento, la construcción del conjunto de datos, el método de entrenamiento o similar.37

El científico jefe de OpenAI, Ilya Sutskever, subrayó el cambio de OpenAI hacia modelos cerrados, métodos de
entrenamiento patentados y la no divulgación de datos de entrenamiento en una entrevista:

Estuvimos equivocados. De plano, estábamos equivocados. Si cree, como nosotros, que en algún momento la IA
- AGRAMOI – va a ser extremadamente, increíblemente potente, entonces simplemente no tiene sentido abrir el
código fuente. Es una mala idea... Espero que dentro de unos años resulte completamente obvio para todos
que la IA de código abierto simplemente no es prudente.38

microsoft

Microsoft había estado trabajando en el componente de lenguaje natural de la inteligencia artificial desde la
fundación de Microsoft Research en 1990. La división de investigación interna causó sensación de inmediato al
contratar a tres de los mejores lingüistas computacionales de la época de su rival IBM para iniciar su grupo de
investigación de PNL. . En unos pocos años, Microsoft se había convertido en líder mundial en el desarrollo de
herramientas de detección gramatical, revisión ortográfica y traducción automática.39

Los avances en el aprendizaje automático se aceleraron cuando comenzó la era de la nube a principios de la década
de 2010. Satya Nadella fue ascendido a presidente de la División de Servidores y Herramientas en 2011, la división
donde se alojaba la entonces naciente iniciativa de nube de Microsoft, Azure. En febrero de 2014, Nadella asumió el
cargo de director ejecutivo de su predecesor Steve Ballmer. Ese verano, Microsoft anunció Azure ML, uno de los
primeros servicios en la nube que ofrece una plataforma de aprendizaje automático.40En la era del aprendizaje
profundo posterior a los transformadores (desde 2017), Microsoft llevó a cabo investigaciones avanzadas de IA, ML y
LLM principalmente a través de su programa Turing, una colaboración con investigadores académicos de todo el
mundo.41El modelo Turing Natural Language Generation (Turing-NLG), publicado en 2020, contenía 17 mil millones de
parámetros y superó a otros modelos de última generación en ese momento.42En octubre de 2021, Nvidia y el
programa Turing de Microsoft Research combinaron sus esfuerzos de LLM para publicar Megatron-Turing NLG, el
modelo de lenguaje generativo más grande del mundo con 530 mil millones de parámetros.43

5
723-434 Guerras de IA

Cuando Microsoft invirtió sus primeros mil millones de dólares en OpenAI en 2019, el titular fue que Azure se
convertiría en el proveedor exclusivo de nube de OpenAI.44Un analista señaló: “Más allá de los riesgos financieros y las
recompensas para Microsoft, el premio mayor es que pueda trabajar junto con OpenAI en el desarrollo de la tecnología
en Microsoft Cloud, lo que instantáneamente coloca a Microsoft a la vanguardia de lo que podría ser la tecnología de
consumo más importante del mundo. la próxima década”.45

Según informes deLa información, los ejecutivos de Microsoft se mostraron escépticos en 2019 de que OpenAI
estuviera a la altura de las expectativas. A Peter Lee, director de Investigación de Microsoft, le resultaba difícil creer que
OpenAI hubiera podido lograr en unos pocos años lo que los investigadores de Microsoft no habían podido hacer en
una década. Incluso el cofundador de Microsoft, Bill Gates, advirtió a Nadella contra la inversión en OpenAI. Nadella
procedió con cautela y utilizó el grupo interno de investigación de Microsoft para comprobar el trabajo de OpenAI. Al
contar la evolución de la relación, elInformaciónEl artículo continúa:

Con el tiempo, esas dudas comenzaron a desvanecerse. Cuando los investigadores de Microsoft
compararon los modelos de lenguaje de OpenAI lado a lado con los modelos internos de Microsoft,
denominados colectivamente Turing, se volvió innegable que la startup había construido algo mucho
más sofisticado.46

A medida que avanzaba la asociación, Microsoft comenzó a valorar OpenAI como algo más que un gran cliente para
Azure o una apuesta de I+D a largo plazo. Mientras más confianza ganaba Nadella en las capacidades de IA generativa
de OpenAI, más agresivamente presionaba a los equipos de toda la organización para que integraran los modelos de
OpenAI en sus productos. Las inversiones posteriores de Microsoft, incluida una inversión de enero de 2023 por un
valor de 10 mil millones de dólares, reflejaron una creciente confianza en su socio emergente.47

Microsoft continuó con sus propios esfuerzos internos de IA además de integrar la tecnología OpenAI. Los
investigadores de Microsoft trabajaron en modelos a gran escala en toda la organización, incluidas las
implementaciones de GPT orientadas al usuario en Office (consulteAnexo 4) y Bing, y la infraestructura de aprendizaje
automático menos orientada al usuario que se está construyendo en Azure. Prometheus, un modelo desarrollado por
Microsoft que ayudó a fusionar las funciones de búsqueda y chat en Bing, se lanzó en febrero de 2023.48Un artículo en
cableadodescribió el trabajo interno en curso en Microsoft:

Microsoft se ha abstenido de apostar por la tecnología OpenAI. Las respuestas conversacionales


de Bing no siempre se basan en GPT-4, dice Ribas [CVP de búsqueda e inteligencia artificial de
Microsoft]. Para las indicaciones que el sistema Prometheus de Microsoft considera más simples,
el chat de Bing genera respuestas utilizando los modelos de lenguaje Turing de Microsoft, que
consumen menos potencia informática y son más asequibles de operar que el modelo GPT-4, más
grande y completo.49

Meta
Desde su fundación en 2013, Facebook AI Research (FAIR), más tarde Meta AI, había sido dirigida por Yann LeCun,
un investigador franco-estadounidense de IA y profesor de informática en la Universidad de Nueva York. LeCun y otros
investigadores de Facebook desempeñaron un papel importante en el avance del modelo teórico de Redes Generativas
Adversarias (GAN), enfrentando dos redes neuronales (un generador y un discriminador) entre sí para crear una carrera
armamentista coevolutiva de inteligencia artificial capaz de hacer cosas. como generar texto novedoso e imágenes de
apariencia realista.50A lo largo de la década de 2010, FAIR también avanzó en el aprendizaje autosupervisado (SSL) sobre
grandes conjuntos de datos no estructurados y clasificación rápida de texto, inventando un marco llamado fastText, un
enfoque simplificado para la clasificación de texto que podría ejecutarse en hardware básico y económico.51Durante
este tiempo, Facebook implementó constantemente la investigación de FAIR en una variedad de aplicaciones internas,
desde clasificación de noticias hasta moderación de contenido, traducción de idiomas, visión por computadora y
reconocimiento de imágenes.

6
Guerras de IA 723-434

En agosto de 2022, Meta puso a disposición del público su prototipo de chatbot Blenderbot 3. Aunque Blenderbot 3
se construyó sobre el OPT-175B de código abierto de Meta, se lanzó en medio del revuelo inicial de GPT-3 y precedió a
ChatGPT por varios meses, el chatbot de Meta no atrajo la misma atención o entusiasmo generalizado. Los
investigadores y revisores encontraron que Blenderbot era decepcionante en comparación con la versión anterior de
GPT-3, ya quevozseñaló en su titular de agosto de 2022: "¿Por qué es tan malo el nuevo chatbot de IA de Meta?"52

Al igual que el extenso trabajo interno de Google en materia de IA, gran parte de lo que Meta hizo en IA nunca se hizo
público, por lo que un observador sólo podía adivinar el alcance total de su trabajo basándose en sus artículos publicados y
contribuciones públicas a proyectos de código abierto. En noviembre de 2022, Meta AI anunció CICERO, un agente de IA que
había logrado un desempeño a nivel humano en el juego de estrategia Diplomacy. CICERO era un modelo de lenguaje
integrado con algoritmos de razonamiento estratégico que permiten una negociación y cooperación efectivas con actores
humanos.53

En el frente del código abierto, Meta desarrolló y mantuvo PyTorch, un paquete informático y un marco de aprendizaje
automático basado en el paquete Torch de código abierto para Python. Al igual que TensorFlow, PyTorch proporcionó un
conjunto prediseñado de herramientas de desarrollo que podrían usarse para configurar y entrenar rápidamente redes
neuronales de aprendizaje profundo. Al igual que la inversión de Google en TensorFlow y otros proyectos de código abierto
respaldados por la empresa, la inversión de Meta en el ecosistema PyTorch no contribuyó directamente a los resultados de
Meta, pero su disponibilidad tuvo valiosos efectos de segundo orden, generando buena voluntad y atrayendo a la comunidad
de desarrolladores al conjunto de herramientas preferido de Meta. . No obstante, las herramientas internas basadas en PyTorch
de Meta (que siguieron siendo propietarias) se beneficiaron de la rápida innovación que el código abierto hizo posible,
fortaleciendo el atractivo de Meta como centro de innovación y empleador de los mejores ingenieros de IA/ML. En 2022, Meta
transfirió el control de PyTorch a la Fundación Linux.54

En mayo de 2022, Meta lanzó OPT-175B (Open Pretrained Transformer), un modelo de lenguaje grande con 175 mil
millones de parámetros bajo una licencia no comercial GPL 3.0. En febrero de 2023, Facebook lanzó LLaMA (Large
Language Model Meta AI), también bajo una licencia no comercial GPL 3.0, y la compartió con la comunidad de
investigación de IA. LLaMA se lanzó en cuatro tamaños: 7 mil millones, 13 mil millones, 33 mil millones y 65 mil millones
de parámetros, lo que lo hace más flexible para investigadores con diferentes capacidades computacionales. El modelo
de 13 mil millones de parámetros de LLaMA superó a GPT-3 en la mayoría de los puntos de referencia, y LLaMA-65B fue
competitivo con los mejores LLM del mundo.55Meta también publicó detalles sobre cómo se construyó y entrenó el
modelo, incluidos los pesos del modelo que eran propietarios de modelos comparables en OpenAI y Google. Aunque
LLaMA no se lanzó como código abierto, se filtraron copias poco después de que se compartiera con los investigadores.
En unos pocos días, LLaMA se había convertido efectivamente en código abierto.56La relativa apertura de LLaMA hizo
posible que los investigadores de IA fuera de los laboratorios más grandes examinaran cómo se construyó un LLM
genuinamente avanzado.

En mayo de 2023, Meta AI no ofrecía ningún servicio API comercial a los desarrolladores y no había anunciado ningún plan
para hacerlo. De hecho, Meta parecía estar duplicando su enfoque de utilizar herramientas internas patentadas basadas en
tecnologías de código abierto, como lo habían hecho con PyTorch y Open Compute.dEn la convocatoria de resultados de Meta
para el primer trimestre de 2023, el director ejecutivo Mark Zuckerberg dijo:

Ahora mismo la mayoría de las empresas que están formando grandes modelos lingüísticos tienen modelos de
negocio que les llevan a un enfoque cerrado del desarrollo. Creo que existe una oportunidad importante para
ayudar a crear un ecosistema abierto. Si podemos ayudar a ser parte de esto, gran parte de la industria
estandarizará el uso de estas herramientas abiertas y ayudará a mejorarlas aún más.

d Open Compute fue un proyecto comunitario colaborativo iniciado por Facebook en 2009 para diseñar un centro de datos más eficiente desde el
punto de vista energético. En 2011, se fundó la Open Compute Project Foundation para “aplicar los beneficios del código abierto y la colaboración
abierta al hardware [de redes y centros de datos]”. (opencompute.org/about).

7
723-434 Guerras de IA

Esto facilitará que otras empresas se integren con nuestros productos y plataformas a medida que
permitamos más integraciones, y eso también ayudará a que nuestros productos se mantengan a
la vanguardia.

En respuesta a una pregunta sobre el código abierto durante la sesión de preguntas y respuestas, Zuckerberg explicó:

A diferencia de otras empresas del sector, no vendemos un servicio de computación en la nube en el que
intentamos mantener la infraestructura de software diferente que estamos creando como propiedad exclusiva.
Para nosotros, es mucho mejor si la industria estandariza las herramientas básicas que usamos y, por lo tanto,
podemos beneficiarnos de las mejoras que otros hacen y el uso de esas herramientas por parte de otros puede,
en algunos casos como Open Compute, reducir los costos de aquellas cosas que también hacen que nuestro
negocio sea más eficiente. Así que creo que hasta cierto punto simplemente estamos jugando un juego
diferente en la infraestructura que compañías como Google, Microsoft o Amazon, y eso crea incentivos
diferentes para nosotros.57

Estabilidad IA

Stability AI fue fundada en 2019 por el administrador de fondos de cobertura británico convertido en empresario de
IA, Emad Mostaque. El producto estrella de Stability AI, el generador de imágenes de código abierto Stable Diffusion, se
anunció al público en agosto de 2022.58En octubre de 2022, Stability AI recaudó 101 millones de dólares en una ronda
de financiación liderada por Coatue y Lightspeed Venture Partners con la participación de O'Shaughnessy Ventures con
una valoración posterior al dinero de mil millones de dólares.59En una entrevista conTechCrunch, Mostaque enfatizó la
independencia de Stability AI: “Nadie tiene derecho a voto excepto nuestros empleados: ni multimillonarios, grandes
fondos, gobiernos ni nadie más con control de la empresa o de las comunidades que apoyamos. Somos completamente
independientes”.60

Stability AI no era completamente independiente de las grandes tecnologías a nivel técnico: la computación en la
nube era una necesidad costosa para el desarrollo de AI, y Stability ejecutaba un clúster de más de 4000 GPU Nvidia
A100 en Amazon Web Services (AWS). En noviembre de 2022, Stability AI anunció que AWS sería su proveedor de nube
preferido y que los modelos de código abierto de Stability AI estarían disponibles a través de Amazon SageMaker, el
servicio de aprendizaje automático de extremo a extremo de AWS.61Aunque Stability AI era pequeña y la
comercialización de AI generativa era temprana, el surgimiento de Stable Diffusion como una alternativa creíble de
código abierto al DALL-E 2 patentado de OpenAI lo hizo valioso para varias empresas que experimentaban con la
generación de imágenes.

En diciembre de 2022, el grupo de aprendizaje automático de Apple anunció que había creado su propio modelo de
Difusión Estable personalizado y lo estaba optimizando para ejecutarlo en el dispositivo con Apple Neural Engine, una
personalización del procesador disponible solo en Apple Silicon.62La rápida decisión de Apple de optimizar sus propios
procesadores para las capacidades de aprendizaje automático en los dispositivos sugirió a algunos analistas la posibilidad de un
mundo en el que los procesadores personalizados y las optimizaciones de hardware locales podrían convertirse en un factor en
el mercado emergente de productos de IA y ML.63

abrazando la cara

Hugging Face fue fundada por Clément Delangue, Julien Chaumond y Thomas Wolf en 2016. Delangue, con sede en París, había
vendido anteriormente una empresa de tecnología de reconocimiento de imágenes basada en aprendizaje automático a Google. El
primer producto de Hugging Face fue un chatbot destinado a atraer a los adolescentes, pero la empresa pronto giró para centrarse en la
construcción de una plataforma para tecnologías de procesamiento del lenguaje natural, convirtiéndose en el repositorio de Github de
referencia y una herramienta clave para los desarrolladores de PNL. La biblioteca Transformers de Hugging Face fue ampliamente
adoptada por investigadores de IA y ML ya en 2018, haciéndose un hueco en la parte posterior.

8
Guerras de IA 723-434

final de casi todos los productos basados en chat que surgieron después. En mayo de 2022, Hugging Face recaudó una ronda Serie C de
100 millones de dólares liderada por Lux Capital con la participación de Sequoia y Coatue.64

El enfoque de código abierto de Hugging Face parecía seguir el modelo de GitHub, originalmente una startup de comunidad de
desarrolladores y herramientas de desarrollo de código abierto que floreció al hacer una herramienta gratuita tan útil que se convirtió en
un estándar de facto de la industria. Después de que GitHub construyera una base de usuarios de más de 27 millones de
desarrolladores, Microsoft lo adquirió en 2018 por 7.500 millones de dólares.

Su producto estrella, HF Hub, era una comunidad gratuita y de código abierto donde los desarrolladores de IA podían alojar
sus modelos, conjuntos de datos y repositorios privados. Hugging Face también ofreció productos pagos que incluyen Spaces
Hardware (una gama de servicios de computación bajo demanda), Inference Endpoints (un entorno de producción escalable
fácil de implementar desde HF Hub), Autotrain (una herramienta para entrenar, evaluar e implementar automáticamente
modelos de ML). a partir de datos existentes), Pro (una suscripción mensual con características exclusivas para la comunidad
HF) y Enterprise (servicios personalizados para clientes empresariales).sesenta y cinco

Hugging Face lideró el desarrollo de 176B Bloom, un LLM autorregresivo de código abierto creado por el proyecto
BigScience, una comunidad de voluntarios compuesta por más de 1000 investigadores de 60 países y más de 250
instituciones.66Bloom fue entrenado con 1,6 TB de texto preprocesado, alrededor de 350 mil millones de tokens únicos.
miA pesar de lo impresionante que fue Bloom, un desarrollador que evaluó Bloom vs. GPT-3 en una variedad de tareas
concluyó: "GPT-3 tuvo un desempeño mucho mejor que Bloom en cada prueba, lo que lo convierte en la opción obvia si
estás buscando una IA". modelo para ayudarle con su proyecto”.67

Modelos de negocio para IA

Google tenía varias opciones para responder a los recientes movimientos de Microsoft y OpenAI para comercializar
la IA generativa. La primera, y la más obvia, fue lanzar un chatbot independiente de la competencia. Google ya contaba
con la tecnología central de inteligencia artificial generativa y podía actuar rápidamente para lanzar al mercado un
nuevo producto orientado al cliente, siempre que pudiera cumplir con los altos estándares de confianza y seguridad de
Google. Otra forma de incorporar la IA generativa a los productos de Google sería implementarla en la página de
resultados existente de la Búsqueda de Google, una propuesta delicada considerando que la página de resultados ya
era un territorio fuertemente monetizado y negociado. Google también podría insertar herramientas de inteligencia
artificial generativa en las barras laterales y menús de su conjunto de software de productividad, Google Workspace.
Fuera de las aplicaciones orientadas al consumidor, Google podría atraer a organizaciones interesadas en la IA
vendiendo servicios, como alojamiento administrado y API para desarrolladores, o otorgando modelos de licencia a los
desarrolladores. Aunque a menudo se adoptan nuevas tecnologías antes de que el modelo de negocio esté claro,
cualquier modelo de negocio para la IA generativa tendría que tener en cuenta los enormes costos de ejecutar modelos
generativos de vanguardia en la nube, costos que incluso una empresa tan grande como Google tuvo que tomar en
serio.

Aplicaciones para usuarios finales

chatbot Un camino sencillo para Google sería lanzar un chatbot independiente


solicitud. ChatGPT, inicialmente basado en el modelo GPT-3.5, cautivó al mundo tras su lanzamiento en noviembre de 2022.
ChatGPT era de uso gratuito en la web como parte de lo que OpenAI llamó una “vista previa de la investigación”, según la cual el
acceso gratuito era limitado y estaba sujeto a restricciones de demanda (pronto se introdujo un nivel pago con acceso ilimitado,
ChatGPT Plus, por $ 20 al mes). En enero de 2023, solo dos meses después de su lanzamiento, ChatGPT había alcanzado los 100
millones de usuarios activos, la aplicación más rápida en alcanzar esa cifra.

e Un token era una unidad semántica para procesar texto que podía variar en tamaño o longitud según el objetivo de la capacitación.
Una regla general muy general era que mil fichas equivalían a aproximadamente 750 palabras.

9
723-434 Guerras de IA

hito.68Gracias a la demanda sorprendentemente fuerte en diciembre de 2022, OpenAI proyectó que ChatGPT ganaría
200 millones de dólares en 2023 y mil millones de dólares en 2024.69ChatGPT Plus, una versión premium de ChatGPT
con funciones mejoradas y acceso prioritario, se introdujo en febrero de 2023 como una suscripción de 20 dólares al
mes.70

Marzo de 2023 fue un mes muy ocupado en noticias sobre chatbots: Google comenzó a implementar acceso limitado a su
propio chatbot, Bard.71El gigante chino de búsqueda Baidu lanzó Ernie (Representación mejorada a través de la integración del
conocimiento),72y una startup de chatbot respaldada por Google, Anthropic, lanzó un chatbot llamado Claude.73ChatGPT, Ernie,
Bard y Claude estaban pensados como herramientas de uso general, pero otras nuevas empresas de chatbots de IA habían
optado por centrarse en casos de uso específicos, que van desde psicoterapia (Woebot) hasta diagnóstico de atención médica
(Ada) y compañía virtual (Replika). .

En febrero de 2023, Replika, que había anunciado sus funciones de chat NSFW antes de decidir mover el servicio en
una dirección diferente, eliminó la capacidad de sus compañeros de IA para enviar mensajes con carga romántica y
sexualmente sugerentes. Este cambio repentino en los límites decepcionó a algunos usuarios, rompiendo la
continuidad de la relación y generando una ronda de noticias ligeras sobre los amantes perdidos de la IA y el dolor en la
vida real que algunos usuarios experimentaron como resultado.74

Mientras los competidores lanzaban sus propios chatbots de uso general, OpenAI estaba ocupado agregando la
infraestructura para convertir ChatGPT en una plataforma. OpenAI anunció en marzo de 2023 que ChatGPT admitiría
complementos, lo que permitiría a la aplicación acceder a sitios externos para obtener información o capacidades
adicionales (consulteAnexos 5y6).75Sitios de terceros como Instacart, Expedia, OpenTable y Wolfram se registraron para
crear complementos que otorgarían acceso a ChatGPT a sus sistemas. ChatGPT por sí solo podría generar una receta;
ChatGPT con Instacart podría planificar una comida y recibir todos los ingredientes en la puerta de su casa. La
perspectiva de los complementos creó una nueva e interesante fuente potencial de ingresos para OpenAI: la venta de
los valores predeterminados de ChatGPT para varias categorías funcionales.

En medio del revuelo por los chatbots, quedaban preguntas importantes para Google. ¿Se adoptarían los
chatbots generativos como una aplicación de propósito general? ¿Google arriesgaría su reputación si su chatbot
proporcionara respuestas inexactas o incluso ofensivas? Y quizás lo más importante es que no estaba claro si un
chatbot sería un negocio viable. ¿Estarían dispuestos los clientes habituales a pagar una suscripción mensual por
una aplicación de este tipo? ¿O habría alguna forma de integrar publicidad y análisis monetizables en las
respuestas del chat?

Buscar Google también necesitaba considerar si respondería al desafío de Microsoft en materia de búsqueda.
Bing de Microsoft fue el primero en implementar funciones de IA generativa directamente en su aplicación de búsqueda, lo que
generó dudas sobre el futuro del espacio de los motores de búsqueda. El mercado mundial de motores de búsqueda (una gama
de tecnologías para consultar, clasificar y mostrar información relevante a los buscadores de Internet (incluida la publicidad))
estaba valorado en 167 mil millones de dólares en 2021.76En diciembre de 2022, Google manejaba el 61,4% de los buscadores
de Internet en EE. UU., Microsoft manejaba el 29,6% y Yahoo el 11%.77A nivel mundial, Google tenía una participación del 93,4%
del mercado de búsquedas para computadoras de escritorio; Bing quedó en un distante segundo lugar con un 2,8%.78Microsoft
tenía mucho que ganar con un cambio en la forma en que la gente buscaba información en línea, y Google tenía tanto (o más)
que perder.

Sin embargo, Google enfrentó dos problemas clave que dificultaron la decisión de integrar la IA generativa en la
búsqueda y cómo hacerlo. En primer lugar, la IA generativa encarecería drásticamente cada consulta de búsqueda. Un
analista estimó que incluir la tecnología en cada búsqueda de Google generaría 100 mil millones de dólares en gastos
de capital sólo para servidores y hardware de redes. Si Google tuviera los mismos costos operativos que OpenAI, cada
búsqueda de Google costaría 0,36 centavos más por consulta (además de su costo actual de 1,41 centavos por
consulta), lo que llevaría a un aumento de $694,444 en los costos operativos diarios si se aplicara a cada búsqueda.79
Google sufriría una reducción de 36.000 millones de dólares en ingresos operativos

10
Guerras de IA 723-434

implementar esta tecnología en todos los ámbitos para todas las consultas de búsqueda de Google (Anexo 7detalla la estimación de los
analistas del impacto del costo en la Búsqueda de Google).80

En segundo lugar, no estaba claro si el lucrativo modelo de negocio de publicidad en búsquedas sería efectivo si Google
pasara de ofrecer enlaces (con anuncios integrados entre esos enlaces) a ofrecer respuestas narrativas de chat. Google había
dependido durante mucho tiempo de la IA y el aprendizaje automático para optimizar su modelo de negocio basado en
anuncios, vendiendo publicidad junto con los resultados de búsqueda orgánicos que aparecían en la página de resultados, pero
la IA era secundaria a la provisión de enlaces al usuario. Si las consultas de búsqueda pudieran responderse directamente
mediante una función de chat en lugar de una página de enlaces y anuncios, no estaba claro dónde se colocarían los anuncios y
cuánto pagarían los anunciantes por esos anuncios.

En una entrevista de abril de 2023, el director ejecutivo de Google, Sundar Pichai, indicó que la función de chat
eventualmente se integraría en la Búsqueda:

Hemos estado utilizando LLM para mejorar la calidad de la búsqueda y la experiencia de búsqueda, pero creo
que incorporaremos de forma nativa las capacidades modernas de LLM en la búsqueda. Estamos trabajando
para asegurarnos de que funcione bien para los usuarios: tienen un listón alto y queremos alcanzar ese listón.
Pero sí, ¿las personas podrán hacer preguntas a Google e interactuar con los LLM en el contexto de la
búsqueda? Absolutamente.81

Software de productividad Google podría integrar IA generativa en sus aplicaciones de productividad


en Google Workspace. El mercado mundial de software de productividad de oficina (un conjunto de aplicaciones que
normalmente incluyen procesamiento de textos, hojas de cálculo, presentaciones, correo electrónico, calendario, toma de notas
y bases de datos básicas) estaba valorado en 23.500 millones de dólares en 2021.82En 2020, Microsoft 365 tenía una
participación del 54,7% del mercado global de suites de productividad empresarial, mientras que Google Workspace tenía una
participación del 26,3%.83Microsoft 365 fue la aplicación SaaS más vendida de todos los tiempos. El nivel "Business Standard" de
Google Workspace tenía un precio de 144 dólares por usuario al año.84El nivel equivalente de Microsoft 365 tenía un precio de
150 dólares por usuario al año.85Para Microsoft, su conjunto de aplicaciones de productividad de larga data era más que una
enorme fuente de ingresos; Microsoft utilizó 365 para realizar ventas cruzadas de muchos de sus otros productos, como la
computación en la nube de Azure y muchas otras aplicaciones empresariales.

La visión de Microsoft para la integración de la IA generativa en su software de productividad se expuso en el discurso de


apertura de Satya Nadella en el evento “El futuro del trabajo con IA” en marzo de 2023:

Se podría decir que hemos estado usando IA en piloto automático, y ahora en esta próxima generación de IA,
estamos pasando del piloto automático al copiloto... A medida que construimos esta próxima generación de IA,
tomamos una decisión de diseño consciente para poner la agencia humana tanto en un premio como en el
centro del producto. Por primera vez tenemos acceso a una IA que es tan empoderadora como poderosa.86

A lo largo del evento, los ejemplos y demostraciones de Microsoft mostraron a copilotos con tecnología de inteligencia
artificial ayudando a los humanos con tareas de manera útil e intuitiva: clasificando correos electrónicos en Outlook,
expandiendo viñetas en una nota escrita en Word o analizando y resaltando tendencias en una hoja de cálculo de Excel en
respuesta a consultas basadas en texto como "¿Qué contribuyó a la disminución del crecimiento de las ventas en este período?"
Microsoft Business Chat, un chatbot empresarial integrado en Teams, puede aprovechar datos de todo el conjunto de
aplicaciones de Microsoft de la organización para mostrar datos e ideas en respuesta a consultas de texto, aprovechando el
poder del conocimiento organizacional almacenado.87

11
723-434 Guerras de IA

API para desarrolladores

Como alternativa o además de ofrecer aplicaciones con IA a los usuarios finales, Google podría vender acceso a una
API para desarrolladores externos que desarrollarían sus propias aplicaciones para los usuarios accediendo a la IA de
Google. Una interfaz de programación de aplicaciones (API) era una característica de software para entrada y salida que
podían utilizar desarrolladores externos para integrar la funcionalidad del proveedor en sus propias aplicaciones o
servicios. En este modelo de negocio, el proveedor de la API cobraba una tarifa por el acceso a la API, ya sea mediante
suscripción o mediante un modelo basado en el uso. La empresa de pagos Stripe y la empresa de herramientas de
comunicación Twilio habían alcanzado el éxito utilizando un modelo de negocio API. En junio de 2020, OpenAI lanzó una
API para que desarrolladores externos utilicen sus modelos, señalando en su anuncio:

Además de ser una fuente de ingresos que nos ayuda a cubrir los costos en el cumplimiento de nuestra misión,
la API nos ha impulsado a centrarnos más en la tecnología de inteligencia artificial de uso general: hacer
avanzar la tecnología, hacerla utilizable y considerar sus impactos en el mundo real. . Esperamos que la API
reduzca en gran medida la barrera para producir productos beneficiosos impulsados por IA, lo que dará como
resultado herramientas y servicios que son difíciles de imaginar hoy en día.88

Por muy influyente que haya sido Google en la investigación y el desarrollo de la infraestructura de IA, no ofreció ningún
servicio API comercial de cara al público para IA en 2021 o principios de 2022. En agosto de 2022, Google comenzó a invitar a
investigadores selectos a acceder a algunas tecnologías de IA de Google a través de una API limitada llamada AI Test Kitchen.89A
principios de 2023, Google comenzó a abrir algunos de sus proyectos y servicios cerrados a usuarios externos en versión beta
limitada. La repentina apertura del jardín privado de IA de Google fue ampliamente vista como una respuesta competitiva a las
recientes medidas de OpenAI para publicitar la tecnología de manera orientada al consumidor, abriendo la puerta a la
posibilidad de un nuevo mercado para aplicaciones de IA generativa y una API para desarrolladores.90

Los acontecimientos a lo largo de 2023 continuaron creando incertidumbre sobre cómo se monetizaría la IA. En
marzo, investigadores de Stanford lanzaron Alpaca 7B, un modelo de seguimiento de instrucciones perfeccionado a
partir del modelo LLaMA 7B de código abierto de Meta. El equipo de Stanford publicó detalles completos de sus
procesos de generación de datos y capacitación, lo que permitió a cualquier persona interesada en cómo se crearon los
LLM de vanguardia seguir y reproducir su trabajo.91Tras la noticia, un investigador de IA tuiteó:

No creo que la gente se dé cuenta de la importancia que tiene que Stanford haya reentrenado un
modelo LLaMA, en una forma de seguimiento de instrucciones, ajustándolo **de manera barata** en
las entradas y salidas [de una de las versiones más poderosas de OpenAI GPT-3]. Significa: si permites un
acceso suficientemente amplio a tu modelo de IA, incluso mediante API paga, estás regalando las joyas
de la corona de tu negocio a competidores que luego pueden casi clonar tu modelo sin todo el arduo
trabajo que hiciste para construirlo. cree su propio conjunto de datos de ajuste fino...

En otras palabras: las empresas de IA que obtengan ganancias serán aquellas que tengan un
foso competitivo no basado en las capacidades de su modelo, O aquellas que no expongan las
entradas y salidas subyacentes de su modelo a los clientes, O puedan demandar con éxito.
cualquier competidor que se dedique a [clonación de modelos].92

Licencia del modelo a desarrolladores

Finalmente, Google podría otorgar licencias de sus modelos de IA subyacentes a desarrolladores externos bajo una licencia
cerrada o abierta.

12
Guerras de IA 723-434

Licencia cerrada Cuando una entidad retiene el control exclusivo sobre su propiedad intelectual, pero
otorga acceso a los clientes con ciertos términos sobre cómo se puede utilizar, esta es una licencia cerrada. Los modelos
de negocio de licencia cerrada se centran en proteger la propiedad intelectual de la empresa y generar ingresos a partir
de ventas directas o tarifas de licencia. El código o la tecnología subyacente normalmente es propiedad de la empresa
que vende la licencia (el licenciante), y los clientes (los licenciatarios) pagan a esa empresa una tarifa por utilizarlo según
los términos y condiciones detallados en un acuerdo de licencia.

Google podría otorgar licencias de su modelo de IA a otras empresas y, en esencia, servir como parte de OpenAI en la
relación OpenAI-Microsoft, pero para todas las demás empresas que no se llamen Microsoft. El acuerdo de Microsoft con
OpenAI fue una combinación de una tarifa de licencia cerrada pagada por Microsoft a OpenAI y una inversión estratégica
considerable, parte de la cual llegó en forma de efectivo y otra en forma de subvenciones de recursos de Microsoft (como la
informática Azure). fuerza). Aunque los términos completos del acuerdo no se hicieron públicos, el anuncio de Microsoft de
septiembre de 2020 especificó que Microsoft estabaexclusivamente otorgar licencias de GPT-3 de OpenAI, restringiendo la
capacidad de OpenAI para otorgar licencias de su modelo a otras compañías tecnológicas rivales, pero sin restringir la
capacidad de OpenAI para vender acceso al modelo a través de API.93Si Google siguiera este camino, podría decidir conceder
licencias de forma amplia o exclusiva a unas pocas empresas.

Licencia abierta Cuando un licenciante permite que otros utilicen, modifiquen y distribuyan libremente su propiedad intelectual
propiedad (a veces sujeta a ciertas condiciones como atribución o uso no comercial), esta es una licencia abierta. Las
licencias abiertas fueron popularizadas por la comunidad de software de código abierto, donde proyectos interesantes
reunieron a diversos colectivos de contribuyentes que tenían un interés conjunto en mantener y hacer avanzar el
proyecto para beneficio colectivo y social. Había grados de apertura en las licencias abiertas: GPL (Licencia Pública
General GNU) y AGPL (Licencia Pública General GNU Affero) habitan el extremo más restrictivo del espectro, mientras
que Apache, BSD y MIT ocupan el extremo más permisivo. Cualquiera que fuera la licencia utilizada, las licencias
abiertas dificultaban la monetización directa. Los competidores podrían simplemente copiar el código; cuando una
licencia más restrictiva lo prohibía, los competidores a menudo podían rediseñar la idea de manera segura para los
derechos de autor a partir del código disponible. A pesar de estos desafíos, el software de código abierto ganó
popularidad a medida que los líderes de proyectos de licencia abierta encontraron formas de construir negocios
rentables a su alrededor. En lugar de monetizar la propiedad intelectual directamente a través de ventas o licencias, las
empresas de licencia abierta monetizaron su trabajo indirectamente ofreciendo productos premium creados sobre la
herramienta de licencia abierta, o servicios pagos adyacentes, como consultoría o soporte. Los productos de licencia
abierta podrían escalar rápidamente debido a su bajo costo para los usuarios, y las empresas podrían eventualmente
monetizar esas bases de usuarios más grandes ofreciendo productos adicionales por los que la próxima generación de
usuarios estaría dispuesta a pagar. Google tenía experiencia en hacer esto con proyectos anteriores de código abierto
como Android y TensorFlow. Si bien cualquiera puede usar el código de TensorFlow bajo la licencia Apache 2.0, usar el
software de manera efectiva requiere una variedad de infraestructura que se puede comprar e implementar fácilmente
en Google Cloud Platform. La amplia disponibilidad de TensorFlow bajo una licencia abierta permisiva contribuyó al
negocio de servicios en la nube de Google.

Sin embargo, monetizar el código abierto llevando a los clientes a servicios gestionados no era una estrategia
infalible en el mundo ultracompetitivo de la computación en la nube. Por diseño, las herramientas de código abierto se
pueden utilizar en cualquier infraestructura, y AWS de Amazon ofrecía una gama de herramientas de computación en la
nube que eran competitivas y, a menudo, más baratas que sus equivalentes de Google Cloud o Microsoft Azure.
Amazon SageMaker, una opción popular para implementar y entrenar modelos de ML en la nube lanzada en 2017, ya se
estableció como líder del mercado en entrenamiento y ajuste de modelos de ML basados en la nube. La naturaleza
modular de AWS facilitó agregar o restar la infraestructura necesaria para almacenar los datos y entrenar el modelo. A
menos que una empresa ya estuviera ejecutando Google Cloud, usar SageMaker en AWS para ajustar modelos
generalmente tenía más sentido.94

13
723-434 Guerras de IA

En mayo de 2023 apareció en el blog de tecnología un documento interno filtrado de GoogleSemianálisis eso
mostró a la empresa lidiando con la fuerte presencia del código abierto en la IA generativa. El documento,
titulado "No tenemos foso, y OpenAI tampoco", era aparentemente un memorando interno destinado a influir en
la estrategia de Google para la IA generativa. El autor expuso una serie de propuestas sobre el cambiante
mercado de la IA generativa, la principal de ellas es que el mayor ganador en el giro hacia el código abierto que
definió la primavera de 2023 fue Meta, por razones que Google debería haber entendido:

Debido a que el modelo filtrado era suyo [de Meta], efectivamente han obtenido el valor de mano de
obra gratuita de todo un planeta. Dado que la mayor parte de la innovación de código abierto se
produce sobre su arquitectura, no hay nada que les impida incorporarla directamente en sus productos.

La nota continúa:

No se puede subestimar el valor de ser dueño del ecosistema. El propio Google ha utilizado con éxito
este paradigma en sus ofertas de código abierto, como Chrome y Android. Al poseer la plataforma
donde se produce la innovación, Google se consolida como líder intelectual y creador de direcciones,
adquiriendo la capacidad de dar forma a la narrativa de ideas que son más grandes que él mismo.
Cuanto más controlemos nuestros modelos, más atractivas seremos las alternativas abiertas. Tanto
Google como OpenAI han gravitado a la defensiva hacia patrones de lanzamiento que les permiten
mantener un control estricto sobre cómo se utilizan sus modelos. Pero este control es una ficción.
Cualquiera que desee utilizar LLM para fines no autorizados puede simplemente elegir entre los
modelos disponibles gratuitamente.95

Conclusión
Los modelos de lenguajes grandes como ChatGPT requerían mucha potencia informática para entrenarse y
ejecutarse. Aunque ChatGPT y productos similares a veces se presentaban al público como “gratuitos”, el costo de
ejecutarlos (y especialmente de abrirlos al público a escala) era sustancial, incluso para una gran empresa de tecnología
como Microsoft o Google. OpenAI gastó millones de dólares cada año para mantener ChatGPT en funcionamiento. Si
bien OpenAI había abierto un mundo de posibilidades al presentar al público los LLM generativos, el recorrido de su
modelo de negocio estaba lejos de estar completo. Con el tiempo, la IA generativa tendría que madurar hasta
convertirse en un negocio generador de ingresos, tal como lo había hecho la computación en la nube durante la década
anterior, si el entusiasmo y la inversión iniciales continuaran. Si bien no había dudas sobre el enorme valor potencial de
la IA generativa, Google y sus competidores enfrentaron serias dudas sobre cómo serían el negocio y la monetización
de la IA generativa.

14
Guerras de IA 723-434

Exhibición 1 La filosofía de la IA de Google (extracto)

Por qué nos centramos en la IA (y con qué fin)

Estamos entusiasmados con el poder transformador de la IA y sus nuevas y útiles aplicaciones...

Al mismo tiempo, entendemos que la IA, como tecnología aún emergente, plantea diversas complejidades y riesgos en
evolución. Nuestro desarrollo y uso de la IA deben abordar estos riesgos. Es por eso que nosotros, como empresa,
consideramos imperativo implementar la IA de manera responsable. Estamos comprometidos a liderar y establecer el estándar
en el desarrollo y envío de aplicaciones útiles y beneficiosas, aplicando principios éticos basados en valores humanos y
evolucionando nuestros enfoques a medida que aprendemos de la investigación, la experiencia, los usuarios y la comunidad en
general.

– James Manyika, Jeff Dean, Demis Hassabis, Marian Croak y Sundar Pichai

16 de enero de 2023

Fuente: Extraído de Google AI, “Por qué nos centramos en la IA (y con qué fin)”, 16 de enero de 2023.https://ai.google/our-focus/, consultado en
julio de 2023.

15
723-434 Guerras de IA

Anexo 2 Interfaz de Google Bard y resultados de muestra

Fuente: captura de pantalla del autor del caso, Google, "Bard"https://bard.google.com/, consultado en junio de 2023.

Anexo 3 Interfaz ChatGPT y salida de muestra con GPT-4

Fuente: captura de pantalla del autor del caso, OpenAI, “ChatGPT”https://chat.openai.com/chat, consultado en junio de 2023.

dieciséis
Guerras de IA 723-434

Anexo 4 Demostración del copiloto de Microsoft Office

Fuente: Microsoft, “Presentación de Microsoft 365 Copilot: su copiloto para el trabajo”, 16 de marzo de 2023,https://blogs.microsoft.
com/blog/2023/03/16/presentando-microsoft-365-copilot-your-copilot-for-work/.

Anexo 5 Tienda de complementos ChatGPT

Fuente: Captura de pantalla de Casewriter, OpenAI, “Tienda de complementos ChatGPT”https://chat.openai.com/?model=gpt-4-plugins, consultado en junio
de 2023.

17
723-434 Guerras de IA

Anexo 6 El complemento OpenTable de ChatGPT en acción

Fuente: captura de pantalla del autor del caso, OpenAI, “ChatGPT”https://chat.openai.com/chat, consultado en junio de 2023.

Anexo 7 Estimación del analista de la estructura de costos de la búsqueda de Google

Métrico Búsqueda de Google en 2022 Búsqueda de Google con ChatGPT

Ingresos por consulta $0.01610 $0.01610


Costo por consulta $0.01060 $0.01416
Costo incremental por consulta - $0.00356
Ingresos por consulta $0.00550 $0.00194

Consultas por año 10,1 billones de consultas 10,1 billones de consultas

Ingresos anuales $162,5 mil millones $162,5 mil millones

Costo anual $107.0 mil millones $142,9 mil millones

Costo adicional - 35.900 millones de dólares

Ingresos de explotación 55.500 millones de dólares 19.500 millones de dólares

Fuente: Extraído de: Dylan Patel y Afzal Ahmad, “Peeling the Onion's Layers: Large Language Models Search Architecture and
Cost”, SemiAnalysis, 13 de febrero de 2023.https://www.semianalysis.com/p/peeling-the-onionslayers-large-language,
consultado en abril de 2023.

Nota: Asume 320.000 consultas por segundo y 31.536.000 segundos por año.

18
Guerras de IA 723-434

Notas finales

1 Microsoft, “Microsoft and OpenAI Extend Partnership”, Blog de Microsoft, 23 de enero de 2023, https://
blogs.microsoft.com/blog/2023/01/23/microsoftandopenaiextendpartnership/, consultado el 27 de enero de 2023.

2 John Markoff, “¿Cuántas computadoras se necesitan para identificar un gato? 16.000”New York Times, 25 de junio de 2012, https://
www.nytimes.com/2012/06/26/technology/in-a-big-network-of-computers-evidence-of-machine-learning.html, consultado el 20 de enero de
2023.

3 Jeffrey Dean et al., “Redes profundas distribuidas a gran escala”,Avances en los sistemas de procesamiento de información
neuronal 25 (NIPS 2012), editado por F. Pereira, CJ Burges, L. Bottou y KQ Weinberger, https://proceedings.neurips.cc/paper_files/
paper/2012/file/6aca97005c68f1206823815f66102863-Paper.pdf

4 Sundar Pichai, “TensorFlow: aprendizaje automático más inteligente, para todos”, The Keyword Blog, 9 de noviembre de 2015.
https://blog.google/technology/ai/tensorflow-smarter-machine-learning-for/, consultado el 15 de mayo de 2023.

5 Quoc V. Le y Mike Schuster, “A Neural Network for Machine Translation, at Production Scale”, Blog de investigación de Google, 27 de
septiembre de 2016,https://ai.googleblog.com/2016/09/a-neural-network-for-machine.html, consultado el 20 de enero de 2023.

6 Julian Ibarz y Sujoy Banerjee, “Updating Google Maps with Deep Learning and Street View”, Blog de investigación de Google, 3 de mayo de 2017,
https://ai.googleblog.com/2017/05/updating-google-maps-with-deep-learning.html, consultado el 20 de enero de 2023.

7 Universidad de Toronto, “U of T Neural Networks Start-up adquirida por Google”, Sala de prensa de la Universidad de Toronto, 12 de
marzo de 2013,https://media.utoronto.ca/media-releases/u-of-t-neural-networks-start-up-acquired-by-google/.

Cade Metz, “'El padrino de la IA' abandona Google y advierte sobre el peligro que se avecina”, New York Times, 4 de mayo de 2023, https://
www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html, consultado el 22 de junio de 2023.

8 Alexia Tsotsis, “Google compra Wavii por más de 30 millones de dólares”, TechCrunch, 23 de abril de 2013, https://
techcrunch.com/2013/04/23/google-buys-wavii-for-north-of-30-million/, consultado el 23 de enero de 2023.

9 Aaron Hurst, “Se revela que Google ha adquirido la mayoría de las empresas emergentes de IA desde 2009”, Information Age, 18 de febrero de
2020. https://www.information-age.com/google-revealed-acquired-most-ai-startups-since-2009-15415/, consultado el 26 de enero de 2023.

10 Catherine Shu, “Google adquiere la startup de inteligencia artificial DeepMind por más de 500 millones de dólares”, TechCrunch, 26 de enero
de 2014,https://techcrunch.com/2014/01/26/google-deepmind/, consultado el 23 de enero de 2023.

11 Sundar Pichai, “Google DeepMind: Bringing Together Two World-Class AI Teams”, Blog de palabras clave de Google, 20 de abril de 2023.
https://blog.google/technology/ai/april-ai-update/, consultado el 3 de mayo de 2023.

12 Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser e Illia Polosukhin, “La
atención es todo lo que necesitas”, arXiv.org,https://arxiv.org/pdf/1706.03762.pdf, consultado el 14 de junio de 2023.

13 Jacob Devlin y Ming-Wei Chang, “Open Sourcing BERT: State-of-the-Art Pre-Training for Natural Language Processing”, Blog de investigación de
Google, 2 de noviembre de 2018,https://ai.googleblog.com/2018/11/open-sourcing-bert-state-of-art-pre.html, consultado el 23 de enero de 2023.

14 Dale Markowitz, “Transformers, Explicación: comprenda el modelo detrás de GPT-3, BERT y T5”, Dale on AI, 6 de mayo de 2021, https://
daleonai.com/transformers-explained, consultado el 14 de junio de 2023.

15 Andrew M. Dai y Nan Du, “Aprendizaje en contexto más eficiente con GLaM”, Blog de investigación de Google, 9 de diciembre de 2021,
https://ai.googleblog.com/2021/12/more-ficient-in-context-learning-with.html, consultado el 23 de enero de 2023.

Heng-Tze Cheng y Romal Thoppilan, “LaMDA: Hacia modelos de diálogo seguros, fundamentados y de alta calidad para todo”, Blog de
investigación de Google, 21 de enero de 2022.https://ai.googleblog.com/2022/01/lamda-towards-safe-groundedand-high.html, consultado el
23 de enero de 2023.

16 Sharan Narang y Aakanksha Chowdhery, “Pathways Language Model (PaLM): escalamiento a 540 mil millones de parámetros para un
rendimiento innovador”, Blog de investigación de Google, 4 de abril de 2022,https://ai.googleblog.com/2022/04/pathways-languagemodel-
palm-scaling-to.html, consultado el 23 de enero de 2023.

17 James Vincent, “Google invirtió 300 millones de dólares en una empresa de inteligencia artificial fundada por ex investigadores de OpenAI”, The Verge, 3 de
febrero de 2023.https://www.theverge.com/2023/2/3/23584540/google-anthropic-investment-300-million-openai-chatgpt-rival-claude, consultado el 28 de
marzo de 2023.

19
723-434 Guerras de IA

18 Richard Waters y Miles Kruppa, “Rebel AI Group recauda dinero récord después del cisma del aprendizaje automático”,Tiempos financieros, 28 de mayo
de 2021,https://www.ft.com/content/8de92f3a-228e-4bb8-961f-96f2dce70ebb, consultado el 5 de mayo de 2023.

19 Nico Grant, "Google pide ayuda a Larry Page y Sergey Brin para la lucha contra la IA",New York Times, 20 de enero de 2023,
https://www.nytimes.com/2023/01/20/technology/google-chatgpt-artificial-intelligence.html, consultado el 23 de enero de 2023.

20 Nico Grant y Cade Metz, “Google lanza a Bard, su competidor en la carrera por crear chatbots con IA”,New York Times, 21 de
marzo de 2023,https://www.nytimes.com/2023/03/21/technology/google-bard-chatbot.html, consultado el 3 de mayo de 2023.

21 OpenAI, “Presentación de OpenAI”, Blog de OpenAI, 11 de diciembre de 2015,https://openai.com/blog/introduciendo-openai/,


consultado el 20 de enero de 2023.

22 OpenAI, “OpenAI LP”, Blog de OpenAI. 11 de marzo de 2019,https://openai.com/blog/openai-lp/, consultado el 20 de enero de 2023.

23 OpenAI, “Microsoft invierte y se asocia con OpenAI para apoyarnos en la creación de AGI beneficiosa”, 22 de julio de 2019, https://
openai.com/blog/microsoft/, consultado el 20 de enero de 2023.

24 OpenAI, “API de OpenAI”, Blog de OpenAI, 11 de junio de 2020,https://openai.com/blog/openai-api/, consultado el 20 de enero de 2023.

25 Will Douglas Heaven, “El nuevo generador de lenguaje GPT-3 de OpenAI es sorprendentemente bueno y completamente absurdo”, MIT
Technology Review, 20 de julio de 2020.https://www.technologyreview.com/2020/07/20/1005454/openai-machine-learninglanguage-generator-
gpt-3-nlp/, consultado el 20 de enero de 2023.

26 Karen Hao, “OpenAI está dando a Microsoft acceso exclusivo a su modelo de lenguaje GPT-3”, MIT Technology Review, 30 de
septiembre de 2020,https://www.technologyreview.com/2020/09/23/1008729/openai-is-giving-microsoft-exclusive-accessto-its-gpt-3-
language-model/, consultado el 20 de enero de 2023.

27 Alberto Romero, “Cómo OpenAI vendió su alma por mil millones de dólares”, Medium, 30 de agosto de 2021, https://
onezero.medium.com/openai-sold-its-soul-for-1-billion-cf35ff9e8cd4, consultado el 20 de enero de 2023.

28 Caroline Haskins, “La misión de OpenAI para beneficiar a la humanidad ahora incluye la búsqueda de ganancias”, Placa base: Tech by Vice,
12 de marzo de 2019,https://www.vice.com/en/article/kzdyme/openais-mission-to-benefit-humanity-now-includes-seekingprofit, consultado el
15 de marzo de 2023.

29 Erin Woo y Amir Efrati, “Las pérdidas de OpenAI se duplicaron a 540 millones de dólares a medida que desarrolló ChatGPT”, The Information, 4 de mayo
de 2023,https://www.theinformation.com/articles/openais-losses-doubled-to-540-million-as-it-developed-chatgpt, consultado el 6 de junio de 2023.

30 Microsoft, “Microsoft and OpenAI Extend Partnership”, Blog de Microsoft, 23 de enero de 2023, https://
blogs.microsoft.com/blog/2023/01/23/microsoftandopenaiextendpartnership/, consultado el 27 de enero de 2023.

31 Tom Warren, “Microsoft amplía su asociación con OpenAI en una 'inversión multimillonaria'”, The Verge, 23 de enero de 2023.
https://www.theverge.com/2023/1/23/23567448/microsoft-openai-partnership-extension-ai, consultado el 27 de enero de 223.

32 Microsoft, “Microsoft and OpenAI Extend Partnership”, Blog de Microsoft, 23 de enero de 2023, https://
blogs.microsoft.com/blog/2023/01/23/microsoftandopenaiextendpartnership/, consultado el 27 de enero de 2023.

33 Cade Metz y Karen Weise, “Microsoft apuesta fuerte por el creador de ChatGPT en la carrera por dominar la IA”,New York Times, 12 de enero
de 2023,https://www.nytimes.com/2023/01/12/technology/microsoft-openai-chatgpt.html, consultado el 27 de enero de 2023.

34 Elon Musk, “Todavía estoy confundido en cuanto a cómo una organización sin fines de lucro a la que doné ~$100 millones de alguna manera se convirtió en una capitalización de mercado de $30 mil millones

con fines de lucro. Si esto es legal, ¿por qué no todo el mundo lo hace?” Twitter: @elonmusk, 15 de marzo de 2023.

https://twitter.com/elonmusk/status/1636047019893481474.

35 OpenAI, "Cree aplicaciones de próxima generación con los potentes modelos de OpenAI",https://openai.com/api/, consultado el 20 de enero de 2023.

36 OpenAI, “GPT-4”, 14 de marzo de 2023,https://openai.com/research/gpt-4, consultado el 8 de mayo de 2023.

37 OpenAI, "Informe técnico GPT-4",https://cdn.openai.com/papers/gpt-4.pdf, consultado el 8 de mayo de 2023.

38 James Vincent, “Cofundador de OpenAI sobre el enfoque anterior de la empresa para compartir abiertamente investigaciones: 'Estábamos equivocados'”,
The Verge, 15 de marzo de 2023,https://www.theverge.com/2023/3/15/23640180/openai-gpt-4-launch-closed-research-ilyasutskever-interview, consultado
el 8 de mayo de 2023.

20
Guerras de IA 723-434

39 Rob Knies, “El meteórico ascenso de la investigación de Microsoft: una historia oral”, Blog de investigación de Microsoft, 26 de septiembre de 2006,
https://www.microsoft.com/en-us/research/blog/meteoric-rise-microsoft-research-oral-history/, consultado el 18 de mayo de 2023.

40 Ron Miller, “Microsoft anuncia Azure ML, una plataforma de aprendizaje automático basada en la nube que puede predecir eventos futuros”,
TechCrunch, 16 de junio de 2014,https://techcrunch.com/2014/06/16/microsoft-announces-azure-ml-cloud-based-machinelearning-platform-
that-can-predict-future-events/, consultado el 18 de mayo de 2023.

41 Microsoft Turing, "Acerca de",https://turing.microsoft.com/about, consultado el 18 de mayo de 2023.

42 Corby Rosset, “Turing-NLG: A 17-Billion-Parameter Language Model by Microsoft”, Blog de investigación de Microsoft, 13 de febrero de 2020,
https://www.microsoft.com/en-us/research/blog/turing-nlg-a-17-billion-parameter-language-model-by-microsoft/, consultado el 18 de mayo de
2023.

43 Paresh Kharya y Ali Alvi, “Uso de DeepSpeed y Megatron para entrenar Megatron-Turing NLG 530B, el modelo de lenguaje generativo más
grande y potente del mundo”, Blog para desarrolladores de Nvidia, 11 de octubre de 2021,
https://developer.nvidia.com/blog/using-deepspeed-and-megatron-to-train-megatron-turing-nlg-530b-the-worlds-largestand-most-
powerful-generative-language-model/, consultado el 18 de mayo de 2023.

44 Mohanbir Swahney, “The Real Reasons Microsoft Invested in OpenAI”, Forbes, 24 de julio de 2019, https://www.forbes.com/sites/
mohanbirsawhney/2019/07/24/the-real-reasons-microsoft-invested-in-openai/, consultado el 19 de mayo de 2023.

45 Liz Hoffman y Reed Albergotti, “Microsoft Eyes $10 Billion Bet on ChatGPT”, Semafor, 9 de enero de 2023, https://
www.semafor.com/article/01/09/2023/microsoft-eyes-10-billion-bet-on-chatgpt, consultado el 19 de mayo de 2023.

46 Aaron Holmes, “Cómo Microsoft se tragó su orgullo para hacer una apuesta masiva por OpenAI”, The Information, 25 de mayo de 2023,
https://www.theinformation.com/articles/how-microsoft-swallowed-its-pride-to-make-a-massive-bet-on-openai, consultado el 6 de junio de
2023.

47 Ibídem.

48 blogs de Microsoft Bing, “Construyendo el nuevo Bing”, 21 de febrero de 2023,https://blogs.bing.com/search-


qualityinsights/february-2023/Building-the-New-Bing, consultado el 6 de junio de 2023.

49 Paresh Dave, “Cómo surgió Bing Chatbot de Microsoft y hacia dónde se dirige a continuación”, Wired, 26 de abril de 2023. https://
www.wired.com/story/how-microsofts-bing-chatbot-came-to-be-and-where-its-going-next/, consultado el 6 de junio de 2023.

50 Meta AI, “FAIR cumple cinco años: lo que hemos logrado y hacia dónde nos dirigimos”, Blog Meta AI, 5 de diciembre de 2018. https://
ai.facebook.com/blog/fair-turns-five-what-weve-accomplished-and-where-were-headed/, consultado el 23 de enero de 2023.

51 Piotr Bojanowski, Armand Joulin, Edouard Grave, Christian Puhrsch y Tomas Mikolov, “Expanded fastText Library Now Fits on
Smaller-Memory Devices”, Ingeniería en Meta Blog, 2 de mayo de 2017,https://engineering.fb.com/2017/05/02/mlapplications/
expanded-fasttext-library-now-fits-on-smaller-memory-devices/, consultado el 23 de enero de 2023.

52 Kelsey Piper, "¿Por qué es tan malo el nuevo chatbot de IA de Meta?" Vox, 21 de agosto de 2022,https://www.vox.com/
futureperfect/23307252/meta-facebook-bad-ai-chatbot-blenderbot, consultado el 27 de enero de 2023.

53 Meta, “CICERO: Un agente de inteligencia artificial que negocia, persuade y coopera con las personas”, Meta Newsroom, 22 de noviembre de
2022.https://ai.facebook.com/blog/cicero-ai-negotiates-persuades-and-cooperates-with-people/, consultado el 27 de enero de 2023.

54 Meta, “Anuncio de la Fundación PyTorch para acelerar el progreso en la investigación de IA”, Meta Newsroom, 12 de septiembre de 2022,
https://about.fb.com/news/2022/09/pytorch-foundation-to-accelerate-progress-in-ai-research/, consultado el 14 de junio de 2023.

55 Meta, “LLaMA: Modelos de lenguaje básico abiertos y eficientes”, 24 de febrero de 2023, Meta Newsroom, https://
research.facebook.com/publications/llama-open-and-ficient-foundation-language-models/, consultado el 23 de marzo de 2023.

56 Richard MacManus, “Por qué los desarrolladores están acudiendo en masa a LLaMA, el LLM de código abierto de Meta”, The New Stack, 5 de mayo de
2023, https://thenewstack.io/why-open-source-developers-are-using-llama-metas-ai-model/, consultado el 12 de mayo de 2023.

57 Meta Platforms Inc., “Llamada de seguimiento de resultados del primer trimestre de 2023”, 26 de abril de 2023, https://s21.q4cdn.com/399680738/files/
doc_financials/2023/q1/META-Q1-2023-Follow-Up-Call-Transcript.pdf, consultado el 9 de mayo de 2023.

21
723-434 Guerras de IA

58 “Emad Mostaque, “Anuncio de lanzamiento de difusión estable”, Blog de estabilidad de IA, 10 de agosto de 2022, https://web.archive.org/
web/20220905105009/https://stability.ai/blog/stable-diffusion-announcement, consultado el 22 de junio de 2023.

59 Mureji Fatunde y Crystal Tse, “Stability AI Raises Seed Round at $1 Billion Value”, Bloomberg, 17 de octubre de 2022, https://
www.bloomberg.com/news/articles/2022-10-17/digital-media-firm-stability-ai-raises-funds-at-1-billion-value, consultado el 30 de
enero de 2023.

60 Kyle Wiggers, “Stability AI, la startup detrás de Stable Diffusion, recauda $101 millones”, TechCrunch, 17 de octubre de 2022, https://
techcrunch.com/2022/10/17/stability-ai-the-startup-behind-stable-diffusion-raises-101m/, consultado el 30 de enero de 2023.

61 Amazon, “Stability AI selecciona a AWS como su proveedor de nube preferido para construir inteligencia artificial para el futuro”, Centro de
prensa de Amazon, 30 de noviembre de 2022.https://press.aboutamazon.com/2022/11/stability-ai-selects-aws-as-its-preferred-cloudprovider-to-
build-artificial-intelligence-for-the-future, consultado el 30 de enero de 2023.

62 Atila Orhon, Michael Siracusa y Aseem Wadhwa, “Stable Diffusion with Core ML on Apple Silicon”, diciembre de 2022, https://
machinelearning.apple.com/research/stable-diffusion-coreml-apple-silicon, consultado el 30 de enero de 2023.

63 Ben Thompson, “AI and the Big Five”, Stratechery, 9 de enero de 2023,https://stratechery.com/2023/ai-and-the-big-five/, consultado el 30 de
enero de 2023.

64 Hugging Face, “Recaudamos 100 millones de dólares para el aprendizaje automático abierto y colaborativo”, Blog de Hugging Face, 9 de mayo de
2022, https://huggingface.co/blog/series-c, consultado el 30 de enero de 2023.

65 “Precios”, Cara abrazada,https://huggingface.co/pricing, consultado el 30 de enero de 2023.

66 “BigScience Large Open-science Open-access Multilingual Language Model”, Hugging Face, versión 1.3, julio de 2022, https://
huggingface.co/bigscience/bloom, consultado el 23 de marzo de 2023.

67 Dylan Kaplan, “GPT-3 vs Bloom [Código real y resultados reales]”, Enjoy Machine Learning, 25 de enero de 2023, https://
enjoymachinelearning.com/blog/gpt-3-vs-bloom, consultado el 23 de marzo de 2023.

68 David Curry, “ChatGPT Revenue and Usage Statistics (2023)”, Business of Apps, 20 de febrero de 2023,
https://www.businessofapps.com/data/chatgpt-statistics/, consultado el 28 de marzo de 2023.

69 Jeffrey Dastin, Krystal Hu y Paresh Dave, “Exclusivo: OpenAI, propietario de ChatGPT, proyecta ingresos por mil millones de dólares para
2024”, Reuters, 15 de diciembre de 2022,https://www.reuters.com/business/chatgpt-owner-openai-projects-1-billion-revenue-by-2024-
sources-2022-12-15/, consultado el 28 de marzo de 2023.

70 OpenAI, “Presentación de ChatGPT Plus”, 1 de febrero de 2023,https://openai.com/blog/chatgpt-plus, consultado el 28 de marzo de 2023.

71 Nico Grant y Cade Metz, "Google lanza a Bard, su competidor en la carrera por crear chatbots con IA",New York Times, 21 de
marzo de 2023,https://www.nytimes.com/2023/03/21/technology/google-bard-chatbot.html, consultado el 22 de marzo de 2023.

72 Chang Che y John Liu, "La respuesta de China a ChatGPT tiene un debut artificial y decepciona",New York Times, 16 de marzo de
2023,https://www.nytimes.com/2023/03/16/world/asia/china-baidu-chatgpt-ernie.html, consultado el 22 de marzo de 2023.

73 Emma Roth, “Anthropic respaldado por Google lanza Claude, un chatbot de IA con el que es más fácil hablar”, The Verge, 14 de marzo de 2023,
https://www.theverge.com/2023/3/14/23640056/anthropic-ai-chatbot-claude-google-launch, consultado el 28 de marzo de 2023.

74 Ben Thompson, “Apple and AI, Lobotomized Lovers, XR Companions”, Stratechery, 21 de marzo de 2023, https://
stratechery.com/2023/apple-and-ai-lobotomized-lovers-xr-companions, consultado el 10 de mayo de 2023.

75 OpenAI, “Complementos ChatGPT”, 23 de marzo de 2023,https://openai.com/blog/chatgpt-plugins, consultado el 10 de mayo de 2023.

76 Business Research Insights, “Tamaño del mercado de motores de búsqueda, participación, crecimiento y análisis de la industria” https://
www.businessresearchinsights.com/market-reports/search-engine-market-101546, consultado el 28 de marzo de 2023.

77 comScore, “Proporción de consultas de búsqueda manejadas por los principales proveedores de motores de búsqueda en los Estados Unidos a
diciembre de 2022”, Statista, 10 de marzo de 2023,https://www.statista.com/statistics/267161/market-share-of-search-engines-in-the-unitedstates/,
consultado el 28 de marzo de 2023.

78 StatCounter, “Cuota de mercado de motores de búsqueda en todo el mundo”,https://gs.statcounter.com/search-engine-market-share, consultado el 28 de


marzo de 2023.

22
Guerras de IA 723-434

79 Dylan Patel y Afzal Ahmad, “The Inference Cost of Search Disruption—Large Language Model Cost Analysis”, SemiAnalysis.com, 9
de febrero de 2023,https://www.semianalysis.com/p/the-inference-cost-of-search-disruption, consultado el 24 de marzo de 2023.

80 Dylan Patel y Afzal Ahmad, “Peeling the Onion's Layers: Large Language Models Search Architecture and Cost”, 13 de febrero de
2023, SemiAnalysis.com,https://www.semianalysis.com/p/peeling-the-onions-layers-large-language, consultado el 24 de marzo de
2023.

81 Miles Kruppa, "CEO de Google sobre IA, el futuro de la búsqueda, la eficiencia y la lucha contra Microsoft",Wall Street Journal8 de abril de 2023.
https://www.wsj.com/articles/google-ceo-sundar-pichai-interview-ai-search-8ed7d2b4, consultado el 8 de mayo de 2023.

82 Grandview Research, “Informe de participación y tamaño del mercado de software de oficina, 2022-2028”, https://
www.grandviewresearch.com/industry-analysis/office-software-market-report, consultado el 28 de marzo de 2023.

83 Gartner, “Cuota de mercado: software de infraestructura empresarial, en todo el mundo, 2020”, septiembre de 2021.

84 Google, “Google Workspace: Precios”,https://workspace.google.com/pricing.html, consultado el 28 de marzo de 2023.

85 Microsoft, “Microsoft Office 365 para empresas: precios: comparar todo”,https://www.microsoft.com/en-us/microsoft-365/


business/compare-all-microsoft-365-business-products, consultado el 28 de marzo de 2023.

86 Satya Nadella, “El futuro del trabajo con IA”, Microsoft, 16 de marzo de 2023,https://news.microsoft.com/
wpcontent/uploads/prod/2023/04/Satya-Nadella-The-Future-of-Work-with-AI.pdf, consultado el 10 de mayo de 2023.

87 Jared Spataro, “Presentación de Microsoft 365 Copilot: su copiloto para el trabajo”, Blog de Microsoft, 16 de marzo de 2023, https://
blogs.microsoft.com/blog/2023/03/16/introduciendo-microsoft-365-copilot-your-copilot-for-work/, consultado el 10 de mayo de 2023.

88 Greg Brockman, Mira Murati, Peter Welinder y OpenAI, “OpenAI API”, 11 de junio de 2020, https://
openai.com/blog/openai-api, consultado el 9 de mayo de 2023.

89 Tris Warkentin y Josh Woodward, “Únase a nosotros en la cocina de pruebas de IA”, Blog de palabras clave de Google, 25 de agosto de
2022. https://blog.google/technology/ai/join-us-in-the-ai-test-kitchen/, consultado el 27 de enero de 2023.

90 Jennifer Elias, “Google anunció Bard AI en respuesta a ChatGPT”, CNBC, 6 de febrero de 2023, https://www.cnbc.com/
2023/02/06/google-announces-bard-ai-in-response-to-chatgpt.html, consultado el 8 de mayo de 2023.

91 Rohan Taori et al, “Alpaca: A Strong, Replicable Institution-Following Model”, Centro de Investigación sobre Modelos de Fundamentos de la
Universidad de Stanford,https://crfm.stanford.edu/2023/03/13/alpaca.html, consultado el 28 de marzo de 2023.

92 Eliezer Yudkowski, 14 de marzo de 2023,https://twitter.com/ESYudkowsky/status/1635577836525469697, consultado el 28 de marzo de 2023.

93 Kevin Scott, “Microsoft se asocia con OpenAI para obtener licencia exclusiva del modelo de lenguaje GPT-3”, Blog oficial de Microsoft, 22 de
septiembre de 2020.https://blogs.microsoft.com/blog/2020/09/22/microsoft-teams-up-with-openai-to-exclusively-licensegpt-3-language-model/,
consultado el 10 de mayo de 2023.

94 Disha Misal, “Google Datalab vs Amazon SageMaker: qué plataforma en la nube es mejor para su proyecto de aprendizaje automático”, Revista
Analytics India, 11 de julio de 2019,https://analyticsindiamag.com/google-datalab-vs-amazon-sagemaker-what-cloud-platform-is-bestfor-your-ml-
project/, consultado el 10 de mayo de 2023.

95 Dylan Patel y Afzal Ahmad, “Google 'We Have No Moat, and Tampoco OpenAI'”, SemiAnalysis, 4 de mayo de 2023, https://
www.semianalysis.com/p/google-we-have-no-moat-and-neither, consultado el 9 de mayo de 2023.

23

También podría gustarte