Documentos de Académico
Documentos de Profesional
Documentos de Cultura
com
seguridad. Estamos aquí para superar la exageración y ayudarlo a Nuestro objetivo es continuar arrojando luz sobre las realidades
Acerca de la escala 42 separar la señal del ruido sobre lo que realmente se necesita para de lo que se necesita para desbloquear la IA para cada negocio.
adoptar la IA generativa para ayudarlo a resolver sus desafíos El panorama de la IA avanza rápidamente, pero esperamos que
Metodología 44 comerciales más importantes. esta investigación ayude a desmitificar los cambios que están en
— Alejandro Wang
FUNDADOR Y DIRECTOR EJECUTIVO, ESCALA
02 Escala
PRINCIPALES CASOS DE USO POR INDUSTRIA REVISIÓN DEL AÑO AI
IA año en
Revisar
Se recopilan grandes cantidades de datos de Luego, el modelo base se ajusta a través del Luego, los modelos generativos pueden
una variedad de fuentes, principalmente aprendizaje de refuerzo a partir de la producir imágenes ilimitadas e
datos de Internet. Un modelo se entrena en retroalimentación humana (RLHF) para infinitamente creativas, entablar
IA generativa
GPU, produciendo un modelo base que es alinearlos más estrechamente con las conversaciones con los usuarios, resumir
altamente capaz, pero no alineado con las preferencias humanas y, en el caso de los LLM, documentos y escribir código.
preferencias humanas. interactúan en un formato conversacional o de
En marzo de 2023, OpenAI lanzó GPT-4, el modelo de también se desarrollará durante el próximo año, como
Grandes saltos en las capacidades de IA generativa
lenguaje grande más capaz jamás creado. También BloombergGPT, un modelo diseñado específicamente para
definieron 2022. A mediados de 2022, los modelos de
alineado con RLHF, GPT-4 aprobó de manera casos de uso financiero. Un número cada vez mayor de estos
difusión de imagen Dall-E 2 (OpenAI) y Stable Di!usion
impresionante muchos exámenes diseñados para modelos será entrenado y lanzado durante el próximo año.
(Stability AI) capturaron los titulares. Muchas nuevas
evaluar la capacidad humana en el percentil 90 o
empresas se apresuraron a construir sus negocios sobre
superior, incluidos varios exámenes AP y el examen de
estas poderosas herramientas de creación de imágenes. A Los modelos generativos se están integrando en Google
barra. En diciembre de 2022, Anthropic anunció una
fines de noviembre, OpenAI lanzó el modelo de lenguaje Workspace y Microsoft Office, lo que permite ganancias de
versión beta cerrada de Claude, un LLM con capacidades
grande GPT-3.5 y la interfaz de chat ChatGPT, que productividad masivas para los usuarios comerciales. Estas
de chat similares a ChatGPT y un enfoque para la
rápidamente se convirtió en uno de los lanzamientos herramientas lo ayudan a escribir el primer borrador de un
alineación humana basado en “IA constitucional, ” donde
tecnológicos más impactantes de la historia. La clave del documento, generar presentaciones completas a partir de un
la supervisión humana se proporciona a través de una
impacto de este modelo fue el uso del aprendizaje solo aviso o analizar y visualizar automáticamente datos
lista de reglas o principios. En marzo de 2023, Google
reforzado con retroalimentación humana (RLHF), una financieros en una hoja de cálculo Las plataformas de
lanzó Bard, su IA conversacional basada en el modelo
técnica para alinear el rendimiento del modelo con la software empresarial como Salesforce están permitiendo a
LaMDA de Google. Varias otras empresas también están
intención humana. los analistas y ejecutivos obtener nuevas perspectivas sobre
construyendo grandes modelos de lenguaje, incluidos los
los datos utilizando IA generativa.
laboratorios AI21, Carper AI, Stability AI y Cohere. Los
modelos específicos de dominio
! GREGBROCKMAN,
PRESIDENTE Y CO " FUNDADOR , ABIERTO
mandato necesarios para crear sus propios modelos para ayudar a mejorar la personalización.
generativos, por lo que deben confiar en terceros. De er experiencia, 56% para mejorar la
aquellas empresas que planean trabajar con modelos eficiencia operativa y 50% para
generativos, la gran mayoría busca aprovechar modelos aumentar la rentabilidad. Centrarse
generativos de código abierto (41 %) o modelos generativos en el cliente beneficia enormemente
de API en la nube (37 %), mientras que muy pocas buscan a las organizaciones, con una mejor
construir sus propios modelos generativos (22 %). reputación del cliente a corto plazo y
una mayor rentabilidad a largo
plazo.
Además, el 28 % usa exclusivamente modelos de código abierto,
mientras que el 26 % usa API en la nube (modelos disponibles El 89 % de las empresas que adoptan la IA se
comercialmente como Claude de Anthropic, GPT-4 de OpenAI y benefician de la capacidad de desarrollar nuevos
Hay múltiples factores que las empresas deben la rentabilidad de los procesos organizacionales. A
sopesar al decidir sobre su infraestructura de IA pesar de los resultados positivos para los
generativa, incluida su experiencia interna en adoptantes de IA, son posibles resultados aún
aprendizaje automático, presupuesto, requisitos de mayores a medida que las empresas aceleran sus
seguridad, menos control sobre los modelos la efectividad de su implementación de IA. Aquellas
subyacentes, un rendimiento de menor calidad en empresas que enumeran la demanda de los accionistas/
tareas específicas del dominio y puede ser costoso. inversionistas como el principal objetivo para la
Los modelos de código abierto brindan más control adopción de IA también muestran los peores resultados
y son más baratos, pero requieren más experiencia en cuanto a experiencia del cliente, ingresos y
interna para implementarlos y ajustarlos. Las rentabilidad. Para garantizar el éxito con una
empresas que buscan construir sus propios modelos implementación de IA, las organizaciones deben evitar
generativos se benefician de un mayor control, pero implementar IA por el simple hecho de implementar IA,
incurren en mayores costos por la recopilación de sino que deben asegurarse de que los objetivos de una
aprendizaje automático para capacitarlos e prioridades de la empresa y que la IA sea una buena
un nuevo
Era Los modelos generativos ya están
transformando la forma en que creamos arte,
entendemos nuestro mundo y hacemos
negocios.
Aunque el aprendizaje por refuerzo a partir de la ChatGPT es un modelo de lenguaje grande que se ha 2022 también vio la proliferación de un nuevo rol para los equipos de
retroalimentación humana (RLHF) no es nuevo para la comunidad ajustado específicamente para la tarea de generación de aprendizaje automático, el "ingeniero rápido". Si bien los modelos
de investigación, en 2022 se catapultó en popularidad, ya que fue texto conversacional. ChatGPT se entrenó con RLHF y datos generativos son competentes para generar el resultado deseado para
un ingrediente fundamental en el éxito de ChatGPT. en formatos de diálogo para permitirle actuar como un los casos de uso comercial, se requiere el aviso correcto para
En lugar de intentar escribir una función de pérdida con la que elaboran cuidadosamente las entradas de lenguaje natural para
entrenar un modelo, RLHF implica solicitar comentarios de usuarios ChatGPT se convirtió rápidamente en uno de los lanzamientos de productos obtener respuestas más consistentes y confiables de los modelos, de
humanos y entrenar un modelo de recompensa con esos comentarios. más impactantes de todos los tiempos, llegando a 1 millón de usuarios en modo que los resultados del modelo se puedan usar en aplicaciones
Este modelo de recompensa definido por humanos se usa luego para solo cinco días y actualmente cuenta con más de 100 millones de usuarios. comerciales. En lugar de escribir una consulta SQL, estos ingenieros
entrenar un modelo base. Esto también permite entrenar con muchos elaboran indicaciones de lenguaje natural finamente perfeccionadas.
humanos, por lo que el tamaño del conjunto de datos ahora solo está ChatGPT se lanzó inicialmente con GPT-3.5, pero ahora
limitado por la cantidad de indicaciones que puede crear. también incluye GPT-4 para los suscriptores de ChatGPT plus. Por ejemplo, al integrar aplicaciones con LLM, las variadas
Estos modelos son altamente capaces de responder respuestas del modelo pueden romper la integración si no están
preguntas, generar contenido y resumir. Si bien estos formateadas correctamente. Digamos que está creando una
Resultados de sintonización RLHF en modelosmejor alineado con las modelos brindan respuestas más sólidas, informativas y aplicación que trata con datos financieros. La entrada de un
preferencias humanas , produciendo respuestas más detalladas y creativas que sus predecesores, el verdadero avance para su usuario puede estar relacionada con las ganancias del cuarto
fácticas. adopción fue su capacidad para mantener conversaciones trimestre de una empresa en particular (ver gráfico a la derecha).
con humanos. La capacidad de interactuar con los modelos
RLHF también define la "personalidad" y el "estado de ánimo" del de manera intuitiva aumentó la accesibilidad de los modelos
modelo, lo que lo hace más útil, amigable y fáctico de lo que sería para que cualquiera pueda usarlos. Los ingenieros rápidos ayudan a modelar respuestas para
el modelo base. Esto significa que obtenemos respuestas del resolver desafíos comerciales con mayor precisión, eficiencia y
modelo que se sienten más humanas y menos parecidas a hablar calidad. También aseguran que las respuestas se alineen con las
con una máquina. RLHF es un componente fundamental para el pautas y la voz de la marca de una organización. También son
éxito de los LLM recientes y también es fundamental para fundamentales para encontrar vulnerabilidades en los modelos
garantizar que las empresas que utilizan IA generativa obtengan mediante el uso de técnicas de inyección rápida y ayudando para
respuestas modelo que se alineen con sus políticas y marcas. resolver esas vulnerabilidades antes de que lo haga un empleado
o cliente.Este rol es muy valioso para garantizar la
implementación exitosa de modelos generativos en las
organizaciones.
Como la IA generativa ahora es más capaz y está ampliamente Por sí mismos, los modelos generativos básicos son
“Una de las formas en que describo Stable Di! disponible, las empresas la están incorporando rápidamente a herramientas valiosas. Junto con los datos de propiedad de
sus operaciones. El 72 % de las empresas aumentará una empresa, se convierten en fuertes diferenciadores,
lusion es como un motor de búsqueda significativamente su inversión en IA cada año durante los mejorando la experiencia del cliente, el desarrollo de
próximos tres años. productos y la rentabilidad.
generativo. Ya no necesita usar la búsqueda
de imágenes porque puede crear la imagen. Aumento de las capacidades de los modelos
generativos
Al poner esto en una tubería en el lugar
correcto y tener interacciones humanas en Muchas organizaciones ahora están construyendo sus propios
“Lo que más me emociona es... la posibilidad de
modelos generativos grandes. Estos modelos se están
el circuito como el trabajo que hace en Scale que nuestros modelos comiencen a usar
incorporando a los motores de búsqueda y se combinan con otras
AI, comprender cómo los humanos hacen herramientas, incluidas las bases de conocimiento internas, para herramientas en el mundo. Dándoles acceso a
convertirse en poderosas herramientas comerciales. Estos
eso a escala y tener estos motores, nos bases de conocimientos, brindándoles acceso a
modelos también se volverán multimodales, lo que significa que
permitirá tener incluso mejores experiencias podrán consumir y generar texto, imágenes y video, haciéndolos motores de búsqueda como Google o Bing, y
aún más útiles de lo que son hoy. Puede cargar un catálogo de aumentándolos con ese conocimiento como un
que entienden lo que queremos”. productos con imágenes y texto en un modelo multimodal, y
recurso para que, en lugar de tener que memorizar
reconocerá productos específicos, escribirá descripciones de
todos estos datos, puedan hacer referencia a un
productos, completará los atributos faltantes y generará nuevas
imágenes para enriquecer su catálogo de productos sitio web en vivo, actualizado y actualizado. base de
El 59 % de las empresas considera que la IA es crítica o A medida que las empresas ven a la IA como más crítica para
muy crítica para su negocio en el próximo año, y el 69 % el éxito futuro de su negocio, están aumentando las
en los próximos tres años. Las crecientes capacidades y inversiones en IA durante los próximos tres años. El 72% de
disponibilidad de la IA generativa acelerarán la las empresas planea aumentar su inversión en IA cada año
adopción de la IA. durante los próximos tres años.
52%
realizan inversiones significativas en IA, el 52 % invierte
están invirtiendo
fuertemente en LLM, el 36 % en modelos visuales generativos y
fuertemente en LLM
el 30 % en aplicaciones de visión artificial. Con las capacidades
recientemente popularizadas de los LLM, las empresas han “Realmente creo que hoy nos encontramos en un momento transformador en el que ML se está moviendo a un ritmo increíble.
36%
cambiado rápidamente sus estrategias de IA para aprovechar el velocidad y problemas que hace unos años se pensaba que eran demasiado complejos para resolver con computadoras, ahora se
poder de la IA generativa. están invirtiendo fuertemente
en visuales generativos están resolviendo aplicando el aprendizaje automático. Así que tenemos esta gran oportunidad. Si el aprendizaje automático se
modelos
vuelve más accesible, el mundo se moverá más rápido, nuestra economía se moverá más rápido, la ciencia se moverá más rápido”.
30%
están invirtiendo en
modelos de visión artificial
! CHOLLET,
FRANCOISAIINGENIERO
ANDRÉS INVESTIGADOR , GOOGLE
Las empresas que consideran que la IA es fundamental para su Si bien los líderes han identificado la necesidad de adoptar IA, la
“Como producto de esta escasez de talento en IA,
negocio indican que cuentan con el apoyo ejecutivo, la estrategia, la ejecución de estas estrategias es difícil, matizada y depende en
visión y el presupuesto que necesitan para tener éxito en la gran medida de la experiencia. El campo se mueve tan rápido la mayoría de las empresas se están perdiendo una enorme
implementación de la estrategia de IA de su empresa. Sin embargo, que es difícil mantenerse al día con el ritmo de avance. Las
oportunidad de integrar esta tecnología en
estas empresas generalmente carecen de la experiencia, el software y personas altamente talentosas con experiencia en IA generativa
las herramientas necesarias para lograr el éxito. simplemente no están disponibles para la mayoría de las productos y en los flujos de trabajo de sus desarrolladores.
! AIDANGÓMEZ,
CEO, COHERE
20 Escala
PRINCIPALES CASOS DE USO POR INDUSTRIA PRINCIPALES CASOS DE USO POR INDUSTRIA
Adopción de IA
por Industria
80%
Todas las industrias buscan aumentar
sus presupuestos de IA en los
próximos tres años. Los que
encabezan la lista son: Seguro
79% 77%
Logística y Financiero
Si bien todas las industrias están aumentando sus presupuestos de IA, cada
industria tiene casos de uso únicos. Estos van desde compañías de seguros
Cadena de suministro Servicios que buscan reducir los tiempos de procesamiento de reclamos hasta
75% 74%
en 2023.
Para ayudar a lograr estos objetivos, las Para ayudar a lograr estos objetivos, las
compañías de seguros buscan adoptar IA empresas minoristas y de comercio
para mejorar el procesamiento de reclamos, electrónico están adoptando IA para
la detección de fraudes y la evaluación/ mejorar la experiencia del cliente con
suscripción de riesgos. chatbots más capaces. También quieren
mejorar la eficiencia operativa con
contenido más productivo y operaciones
de marketing basadas en imágenes y
descripciones de productos generadas por
IA. Estas empresas también están
mejorando su eficiencia operativa con
mejores pronósticos, compras, precios y
Para el procesamiento de reclamos en gestión de inventario. Las empresas
particular, las compañías de seguros creen minoristas y de comercio electrónico no se
que la IA puede ayudar a reducir el tiempo están enfocando en adoptar IA para
para procesar los reclamos y reducir los aumentar los ingresos directamente, sino
errores de procesamiento, lo que dará que indirectamente buscan influir en el
como resultado una mejor experiencia para crecimiento de los ingresos con un
sus clientes y una mayor eficiencia aumento operativo.
operativa. eficiencia y una experiencia
de cliente mejorada.
financieros están aplicando IA para modelos de inversión. Son menos los que
mejorar la eficiencia operativa, mejorar la puede ayudar a mejorar la eficiencia, reducir los
experiencia del cliente y aumentar los costos, mejorar la precisión de las entregas y
Para ayudar a lograr estos objetivos, las una mejor experiencia del cliente, mientras que
general del cliente, con una entrega eficiencia operativa y reducir los costos.
BERT desempeña un papel crítico pero más silencioso en muchas hasta modelos de última generación como GPT-4. El cómputo
organizaciones hoy en día, proporcionando capacidades de requerido para ejecutar estos modelos más sofisticados se volverá
comprensión del lenguaje natural a un costo significativamente más barato con el tiempo, y las empresas tendrán más herramientas
reducido en comparación con modelos más grandes como GPT-3. y experiencia de terceros disponibles para ayudar a integrar estos
Sin embargo, esta tendencia está cambiando ya que BERT no es un modelo abierto como LLaMA ya se están optimizando para ejecutarse en
generativo, por lo que sus casos de uso son limitados en comparación computadoras portátiles de consumo.
¡Apreciaríamos su ayuda para mejorar esta información! Dado el rápido progreso de la IA generativa y la introducción
frecuente de nuevos modelos, tenemos curiosidad por saber qué modelos son ahora los más adoptados. Por favor
tome un momento parallenar la encuesta.
* (ChatGPT/GPT-3.5/GPT-4 no se incluyeron en esta encuesta ya que la recopilación de encuestas comenzó a fines de 2022 antes de que se lanzaran estos modelos)
64%
muchas empresas necesitarán ajustar los modelos básicos utilizando
26%
desafiante y requiere muchos recursos ajustar sus modelos
internamente. Las técnicas más efectivas, como RLHF, requieren que La calidad de los datos sigue siendo la parte más
los humanos apliquen comentarios a los resultados del modelo, desafiante de la adquisición de datos de entrenamiento,
software personalizado y conjuntos de habilidades especializadas seguida de cerca por la recopilación de datos. Los
26%
para garantizar una alta calidad y limitar los sesgos humanos en los desafíos para adquirir datos de capacitación son casi
siendo el problema número uno (64 %), seguido del sesgo de datos
los equipos que obtienen datos anotados más rápido y los equipos
Si bien la mayor parte del informe se ha centrado en RLHF y Tal como lo descubrimos en 2022, medir el impacto comercial de
IA generativa, las empresas aplican el aprendizaje los modelos sigue siendo un desafío, especialmente para las
Los encuestados que solo etiquetan sus datos manualmente clasifican con clasifican la calidad del etiquetado como su desafío número uno, en automático de muchas maneras diferentes, desde la nuevas empresas o las empresas muy pequeñas (aquellas con
mayor frecuencia la calidad del etiquetado como su desafío número uno en comparación con el 47 % que usa el etiquetado automatizado y solo detección de objetos hasta los sistemas de recomendación. menos de 250 empleados). Estas empresas confían más en las
la preparación de datos de capacitación, mientras que aquellos que el 44 % que usa el etiquetado humano en el circuito. La combinación Un componente crítico de estos sistemas ML de producción métricas de modelos agregados, ya que están creando productos
aprovechan el etiquetado automatizado y humano en el ciclo clasifican este de etiquetado automatizado máshumano-en-el-bucle se recomienda es cómo las empresas evalúan y monitorean su desempeño. y una base de clientes, por lo que el impacto empresarial es difícil
desafío con menos frecuencia. El 60% de los encuestados aprovecha el como la mejor práctica, ya que casi siempre supera la precisión y la de medir. Sin embargo, las organizaciones pequeñas y medianas
etiquetado manual de alguna manera eficiencia de cualquiera de los dos por separado. (500-9999 empleados) están midiendo el impacto empresarial más
Como en el informe del año pasado, las organizaciones más atrapados tan rápido como las nuevas empresas o las pequeñas Como descubrimos en el informe del año pasado, es más probable que Aunque los equipos pequeños y ágiles de las empresas más
pequeñas generalmente pueden identificar problemas con sus empresas, que operan sistemas más simples y monitorean de cerca los equipos de ML que identifican los problemas más rápido con sus pequeñas pueden encontrar modos de falla, problemas en sus
modelos rápidamente, en menos de una semana. Es más las métricas del modelo. Además, estas empresas más grandes suelen modelos utilicen pruebas A/B al implementar modelos. modelos o problemas en sus datos antes que los equipos de las
probable que las empresas más grandes (aquellas con 5000 tener una base de clientes más grande, por lo que sus usuarios grandes empresas, sus estrategias de validación, prueba e
empleados o más) midan el impacto comercial, pero es más encontrarán más casos extremos que las empresas más pequeñas. Las métricas agregadas son una línea de base útil, pero a medida que implementación suelen ser menos sofisticadas. Por lo tanto, con
probable que las más pequeñas tarden más (un mes o más) en Por estas razones, es importante que a medida que las empresas las empresas desarrollan una práctica de modelado más sólida, modelos más simples que resuelven problemas más uniformes
identificar problemas con sus modelos. escalan, refinan continuamente sus prácticas de MLOps, utilizan herramientas como "implementaciones en la sombra", ensamblaje, para clientes y clientes, es más fácil detectar fallas. Cuando el
curación de datos herramientas que pueden ayudarlos a identificar pruebas A/B e incluso pruebas de escenarios pueden ayudar a validar sistema crece para incluir un gran mercado o incluso un gran
Estas empresas más grandes están operando sistemas complejos a casos extremos y monitorear sus modelos mientras continúan modelos en escenarios de casos extremos desafiantes o clases raras. personal de ingeniería, la complejidad y la deuda técnica
escala, y es menos probable que los problemas que enfrentan causen midiendo el impacto comercial. comienzan a crecer. A escala, las pruebas de escenarios se
un impacto comercial inmediato, por lo que no son vuelven esenciales, e incluso entonces, puede llevar más tiempo
detectar problemas en un sistema más complejo.
Si bien hemos cubierto las mejores prácticas para evaluar apropiadamente, y se requiere juicio humano para evaluar
modelos, debemos tener en cuenta que, por primera vez, el la corrección. Eso significa que cualquier evaluación sólida
rendimiento de los modelos de IA generativa es casi del modelo, ya sea que la realice un creador de modelos
imposible de evaluar automáticamente. Esto se debe a que el generativos o una empresa, requerirá una validación y
modelo tiene muchas formas de responder. verificación humana en el ciclo de forma continua.
comprender cómo adoptar esta tecnología productividad. Hemos visto cómo estos sistemas
pequeñas, en todas las industrias. Si bien el Informe de modelos más generativos para mantenerse por delante de la
posiblemente más allá de nuestra imaginación.
preparación de IA de 2022 se centró en empresas con experiencia competencia. Las empresas que ajustan los modelos básicos
interna en aprendizaje automático, el informe de este año encuentran que sus desafíos más importantes son la adquisición de Si podemos aprender a integrar de forma
examinó cómo todas las empresas pueden adoptar IA. Este datos de capacitación, la infraestructura de ML y la comparación de
cambio de enfoque refleja el espíritu de la época: mejoras experimentos en diferentes modelos. La evaluación humana ha segura la IA en las empresas mediante la
dramáticas en las capacidades de la IA generativa para acelerar la reemplazado a los puntos de referencia como el método de facto para
innovación y transformar cada negocio. analizar grandes modelos generativos y determinar cómo
creación de sistemas útiles, inofensivos y
funcionarán en una empresa específica. Las empresas y los gobiernos
honestos, podría tener un efecto transformador
Descubrimos que muchas empresas planean trabajar o necesitan aprovechar sus datos únicos para desbloquear todo el
experimentar con modelos básicos, pero muchas carecen de potencial de los modelos generativos. en la economía y las industrias tal como las
la experiencia y las herramientas para poner estos modelos
en producción. La mayoría de las empresas están adoptando En Scale, nuestra misión es acelerar el desarrollo de conocemos”.
IA para mejorar la experiencia del cliente, optimizar la aplicaciones de IA para impulsar los proyectos de IA más
eficiencia operativa o mejorar la rentabilidad. Los modelos ambiciosos del mundo. Para apoyar esa misión, nos
generativos serán cada vez más útiles y ampliamente complace compartir con usted los resultados del Scale
accesibles, lo que los hará esenciales para la estrategia Zeitgeist: AI Readiness Report. Continuaremos arrojando luz !JAREDKAPLAN
comercial de todas las organizaciones con un impacto similar sobre lo que realmente se necesita para adoptar la IA y lo
CIENTÍFICO JEFE, ANTRÓPICO
al de Internet. de AI están viendo la capacidad mejorada para ayudaremos a separar la señal del ruido.
desarrollar nuevos productos o servicios, una mejor
experiencia del cliente y una mejor colaboración entre las
funciones comerciales, además de mejores ingresos y
rentabilidad.
40 Escala
Acerca de
Escala
En Scale, nuestra misión es
acelerar el desarrollo de
aplicaciones de IA. Creemos que
para hacer los mejores modelos,
necesita los mejores datos.
Scale Enterprise Generative AI Platform aprovecha
los datos de su empresa para personalizar potentes
modelos generativos básicos para desbloquear de
forma segura el valor de la IA. Scale Data Engine
consta de todas las herramientas y funciones que
necesita para recopilar, seleccionar y anotar datos
de alta calidad, además de herramientas robustas
para evaluar y optimizar sus modelos. Scale impulsa
los LLM y modelos generativos más avanzados del
mundo a través de RLHF de clase mundial,
generación de datos, evaluación de modelos,
seguridad y alineación.
escala.com
ingenieros de ML, científicos de datos, operaciones de están avanzadas en su adopción de IA/ML: tienen varios modelos
desarrollo, etc.) y líderes involucrados con IA en sus implementados en producción y se vuelven a capacitar
empresas. Después de limpiar los datos y filtrar a regularmente. Alrededor del 18 % son un poco menos avanzados
aquellos que indicaron que no están involucrados en (tienen varios modelos implementados en producción), mientras
proyectos de IA o ML y/o que no están familiarizados que el 8 % solo tiene un modelo implementado en producción, el
con ningún paso del ciclo de vida del desarrollo de ML, 12 % está desarrollando su primer modelo y el 11 % solo está