Está en la página 1de 3

9

Rating ? Cualidades clave ?


Aplicable
Innovador
Visionario

Obtenga el artículo

Lo que ChatGPT revela sobre la urgente


necesidad de una IA responsable
A medida que la IA generativa democratiza su
adopción, surgen nuevos retos para las organizaciones.
(What ChatGPT Reveals About the Urgent Need for Responsible AI)
Abhishek Gupta, François Candelon, Steven D. Mills y
Leonid Zhukov • The Boston Consulting Group © 2023

Industrias / Industria de la Tecnología

Ideas fundamentales
• Las preocupaciones sobre el poder, la gobernanza, los impactos no deseados en los clientes, el exceso de
capacidad y cuestiones de derechos de autor mal definidas plagan la IA generativa.
• Un programa de inteligencia artificial responsable (IAR) tarda un promedio de tres años en madurar, y la
falta de liderazgo y de recursos puede frustrar fácilmente los esfuerzos.
• Las empresas pueden gestionar los riesgos inherentes a los sistemas de IA mediante pólizas de seguros,
red-teaming y procesos de certificación estandarizados.

1 de 3

LoginContext[cu=7191935,asp=8303,subs=8,free=0,lo=es,co=EC] 2023-08-01 04:24:14 CEST


Reseña
No permita que el miedo a lo desconocido le impida implementar la IA generativa para los productos de
su empresa, pero implemente la IA de forma responsable y procure hacerlo pronto: el Boston Consulting
Group ha descubierto que el programa promedio de inteligencia artificial responsable tarda tres años en
madurar. En este informe especial, el Instituto Henderson del Boston Consulting Group expone los pasos
a seguir –incluidas la adquisición de pólizas de seguros y la implementación de procesos de red-teaming–
para adoptar la IA de forma responsable.

Resumen

Las preocupaciones sobre el poder, la gobernanza, los impactos no deseados en los


clientes, el exceso de capacidad y cuestiones de derechos de autor mal definidas
plagan la IA generativa.

Primero hubo una loca carrera por incorporar la IA a los procesos y operaciones de las organizaciones;
ahora, las mismas están reconociendo los problemas que pueden surgir con el uso de la IA, en particular la
IA generativa. Consideremos ChatGPT: el programa puede generar textos científicos de apariencia creíble,
pero a menudo incorrectos; puede repetir como un loro discursos de odio y puede diseminar prejuicios
en avatares e imágenes. Pero los problemas no son solo estos. Los conjuntos de datos utilizados por la
IA generativa contienen una gran variedad de materiales, lo que sienta las bases para reclamaciones por
derechos de autor. Aunque las organizaciones más pequeñas pueden utilizar la IA, solo las empresas muy
grandes con acceso a recursos como grandes conjuntos de datos, potencia informática y de ingeniería
pueden construir IA generativa. Esto significa que el poder de la IA generativa está centralizado entre
organizaciones grandes y poderosas, dejando a los grupos marginados sin voz a la hora de elegir cómo
aplicar esta reciente y poderosa herramienta.

“El proceso de elegir qué cuestiones abordar con la IA está intrínsecamente impulsado
por valores: en algún momento, se selecciona un uso en lugar de otro.”

Se puede definir el “exceso de capacidades” como las habilidades y peligros ocultos que no se planifican en
la fase de desarrollo y que generalmente son desconocidos incluso para los desarrolladores. Los usuarios
siempre querrán explorar aplicaciones creativas más allá de los usos anunciados de la nueva tecnología. Si
alguna vez ha habido una tecnología madura para el exceso de capacidades, esa es la IA.

Un programa de inteligencia artificial responsable (IAR) tarda un promedio de tres


años en madurar, y la falta de liderazgo y de recursos puede frustrar fácilmente los
esfuerzos.

Los sistemas de IA generativa encierran un enorme potencial y presentan a las empresas un amplio
abanico de oportunidades para el futuro. Las organizaciones que ejerzan este poder deben hacerlo de forma
responsable. Las empresas no pueden precipitarse a incorporar la IA sin incorporar la IAR para mitigar los
problemas éticos que probablemente surjan, y deben tener en cuenta que los programas de IAR tardan tres
años en madurar en promedio.

www.getabstract.com
2 de 3

LoginContext[cu=7191935,asp=8303,subs=8,free=0,lo=es,co=EC] 2023-08-01 04:24:14 CEST


“Nuestra investigación ha demostrado que invertir en IAR en una fase temprana es
esencial; minimiza los fracasos a medida que las empresas escalan el desarrollo y el
despliegue de los sistemas de IA dentro de su organización.”

A pesar de la aceptación generalizada de que las prácticas de IAR son importantes, muchas organizaciones
fracasan a la hora de ponerlas en práctica, sobre todo entre empresas pequeñas y medianas que carecen
de mejores prácticas y las estructuras de gobierno para manejarlas. Para implantar con éxito la IAR se
requiere una comprensión clara y una alineación con los valores de la organización, un liderazgo que se
comprometa a llevar a cabo los principios de la IAR y la asignación de recursos para hacer de la IAR una
realidad. También ayuda escudriñar las estrategias a largo plazo empleadas por industrias adyacentes en
una posición similar.

Las empresas pueden gestionar los riesgos inherentes a los sistemas de IA mediante
pólizas de seguros, red-teaming y procesos de certificación estandarizados.

Imagine que su empresa ha desarrollado un sistema de IA para moderar los contenidos en inglés
relacionados con la tecnología. En algunos casos, el sistema de IA fallará; por ejemplo, podría no captar
todos los casos de incitación al odio que surjan en un foro. Disponer de una póliza de seguros para
protegerse de tales situaciones podría mitigar los riesgos. Pero ¿qué ocurre con los riesgos que no se pueden
predecir? Una póliza de seguros que incluya riesgos desconocidos sería más cara, por lo que el gasto debe
sopesarse frente a los beneficios de utilizar un sistema de IA generativa.

“Un seguro de IA ofrece protección frente a ciertos resultados adversos que podrían
derivarse del uso de sistemas de IA.”

Todas las empresas, en particular sus departamentos jurídicos, tendrán que examinar las posibles
repercusiones de la IA generativa y elaborar directrices pertinentes, directas y procesables para hacer frente
a los problemas que puedan surgir. Podrían consultar su libro sobre ciberseguridad acerca del red-teaming
[equipo rojo], que implica simular ataques al sistema en un intento de descubrir vulnerabilidades. El red-
teaming puede requerir la contratación de personal nuevo con el conjunto de habilidades adecuado. La
IA requerirá una exploración constante de nuevas soluciones a medida que surjan los problemas, pero los
beneficios probablemente proporcionarán una ventaja competitiva a largo plazo.

Sobre los autores


François Candelon es director global del Instituto Henderson del BCG. Abhishek Gupta es miembro
del programa de Inteligencia Colectiva Aumentada del Boston Consulting Group, Steven D. Mills es el jefe
de ética de IA del BCG y Leonid Zhukov es socio y director asociado de ciencia de datos del BCG.

¿Le gustó este resumen?


Obtenga el artículo
http://getab.li/47254

Este resumen solo puede ser leído por BUSTAMANTE JUAN CARLOS (juan.bustamante@educacion.gob.ec)
getAbstract asume completa responsabilidad editorial por todos los aspectos de este resumen. getAbstract reconoce los derechos de autor de
autores y editoriales. Todos los derechos reservados. Ninguna parte de este resumen puede ser reproducida ni transmitida de ninguna forma y por
ningún medio, ya sea electrónico, fotocopiado o de cualquier otro tipo, sin previa autorización por escrito de getAbstract AG (Suiza).

3 de 3
LoginContext[cu=7191935,asp=8303,subs=8,free=0,lo=es,co=EC] 2023-08-01 04:24:14 CEST

También podría gustarte