Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Resumen 6 HYMI
Resumen 6 HYMI
de actividades algorı́tmicas, como lo es el acceso a los datos II. W HAT I S A RTIFICIAL I NTELLIGENCE (AI)?
personales, información de toma de decisiones, y requisitos
de impacto de protección de datos, los cuales deben alinearse Para que la tecnologı́a continúe avanzando y logre un
con la mayorı́a de los marcos de responsabilidad de IA. Más despliegue generalizado debe superar ciertos desafı́os como la
de 130 paı́ses ya han aprobado leyes de proyección de datos, ética, gobernanza y los valores humanos, por tanto es necesario
pero hay potencias que aun no, por ejemplo, a pesar de un que se aprenda a identificar y administrar los riesgos que
interés en hacerlo EUA aún no tiene una ley general de presentan las IA de manera efectiva, es asi como para lograr la
protección de datos. correcta cooperación humano-maquina debe existir un plan de
IA mas robusto, que cuente con un marco ético que garantice
la integridad de los datos que se usan y ayude a mejorar la
Reglamento de reconocimiento biométrico : En el año confianza.
2019 surgieron intentos de regulación de la privacidad, dis-
criminación y preocupaciones de vigilancia asociadas a la
vigilancia biométrica, que incluye temas como el recono- II-A. El marco de IA confiable
cimiento facial y afectivo. Estos van desde prohibir hasta
conceder algunos permisos en ocasiones. En Suecia se multó Para abordar mejor los desafı́os relacionados con la ética y
una escuela por usar reconocimiento facial violando una ley la gobernanza de la IA, se tiene el marco de IA confiable de
de tratamiento de datos, otro ejemplo es en Australia, donde Deloitte que tiene seis dimensiones clave que pueden ayudar a
se pauso el uso de una base de datos facial nacional hasta que salvaguardar la ética y construir una estrategia de IA confiable.
no haya una legislación propicia. En el congreso de EUA se II-A1. Justo, no sesgado: Una IA confiable debe seguir
han propuesto proyectos de ley biométricos, de privacidad de un proceso justo y consistente para poder tomar decisiones
reconocimiento facial comercial, y las barreras no biométricas. justas, las cuales incluyan controles internos y externos para
Desarrolladores de Microsoft o de Amazon también han salido que no exista un sesgo discriminatorio, lo cual actualmente es
en apoyo a las formas de regulación en uso. A su vez, inter- un problema continuo para la sociedad, por tanto, las empresas
namente, Amazon intentó bloquear un voto de los accionistas deben buscar lo que sea considerado como sesgo dentro sus
sobre la pausa de la venta de tecnologı́a de reconocimiento algoritmos e intentar corregir y ajustar lo que sea pertinente
facial, aun cuando se hizo la votación, se hizo campaña para reducir de manera considerablemente la discriminación
agresiva para que votaran en contra. Por desgracia la IA avanza por sesgo.
en la industria del reconocimiento biométrico, con grandes
inversiones en producción y despliegue, los gobiernos están II-A2. Transparente y explicable: La IA confiable debe
adoptando la tecnologı́a a un ritmo más rápido que ellos lo ser comprendida por todos los actores, cómo se usan sus datos
están regulando. y cómo se toman las decisiones. Los algoritmos deben ser
abiertos a inspección y ser totalmente explicables. Las IA no
Responsabilidad algorı́tmica y evaluaciones de impacto deben ser tratadas como una caja negra que recibe información
: Observando el informe del año 2018 se evidencia el uso y genera resultados sin una comprensión clara de lo que está
de evaluaciones de impactos algorı́tmicos y como ha ganado haciendo.
popularidad en los cı́rculos polı́ticos de varios paı́ses. Las AIA
requieren que todos los implicados evalúen las implicaciones II-A3. Responsable y explicable : Las AI confiables deben
sociales de sus tecnologı́as antes de ser usadas en la vida aplicar polı́ticas que establezcan la responsabilidad de su
real, cabe recalcar que varios paı́ses como Canadá y EUA producción. Al culpar a la tecnologı́a en sı́ misma por malas
han realizado observaciones y aportes en este campo. Otra decisiones y errores de cálculo no ayuda a los perjudicados ni
dimensión de legislación fue la transparencia algorı́tmica. A a los reguladores del gobierno. Se deben considerar qué leyes
medida que las empresas recurren más a tecnologı́a patentada y regulaciones pueden determinar la responsabilidad legal y
en el ámbito penal, los derechos de propiedad intelectual si los sistemas de IA son auditables y cubiertos por leyes de
de las empresas se enfrentan a derecho de los acusados a denunciantes existentes.
acceder información sobre esa tecnologı́a, para impugnarla en II-A4. Robusto y confiable: Una IA confiable debe ser
el tribunal. robusta y confiable, como mı́nimo igual al personal humano
Experimentación con grupos de trabajo : Hay tecnologı́as que esta reemplazando, debe fallar únicamente en ambientes
que tienen un riesgo enorme como lo es el análisis predic- esperados de falla y poder operar en situaciones no ideales,
tivo, este riesgo aumenta aún más si las usan las agencias el ser humano juega un papel importante para entender la
gubernamentales y toman decisiones con lo que concluya la confiabilidad de estas IA.
máquina, como lo es en temas como escolaridad y las cárceles, II-A5. Respetuoso de la Privacidad: Una IA confiable
por tanto varios gobiernos han puesto en marcha la creación debe respetar la privacidad, ya que es algo crı́tico en todos los
de mecanismos de gobernanza y rendición de cuentas, donde sistemas de datos, debido a que se pueden usar datos detallados
colaboren expertos y trabajadores del gobierno para examinar y personales. Se debe cumplir con regulaciones de datos para
las tecnologı́as emergentes y publicar sus resultados y algunas fines acordados. Se debe saber que datos de los clientes se
recomendaciones para los gobernantes. utilizan y la manera en que se aceptaron y entendieron. Los
clientes deben tener control absoluto sobre sus datos.
HUMANOS Y MAQUINAS INTELIGENTES 3
II-A6. Seguro y protegido: Una IA confiable debe ser fuego y el extintor, el automóvil y los aparatos de seguridad
capaz de protegerse de riesgos de ciberseguridad que puedan , pero, para invenciones como las armas nucleares y la inteli-
ocasionarle daños fı́sicos o digitales, por tanto se debe con- gencia artificial generada (IAG) aprender de los errores no es
siderar estos riesgos y comunicarlos a los usuarios finales, una buena estrategia, y lo mejor que se puede hacer es pensar
teniendo en cuenta que el beneficio que genera una IA debe bien las cosas y hacerlas bien al primer intento, se habla de
ser mayor al riesgo que pueda presentar. nuevo de la misión del apolo 11 donde la nasa pensó en todos
los posibles escenarios en que algo podrı́a salir mal la llamada
III. H OW TO GET EMPOWERED , NOT OVERPOWERED ingenierı́a de seguridad lo cual fue la clave para el éxito de la
misión, lo cual se debe aplicar para la inteligencia artificial,
El conferencista inicia hablando de la evolución que ha por tanto se están realizando reuniones con miles de expertos
tenido el universo, y los descubrimientos que se han hecho en IA y su desarrollo, donde por ejemplo se propusieron 23
en este con la llegada del ser humano y la tecnologı́a que principios de IA fundamentales, como el evitar una carrera
se está desarrollando podrı́a cambiar la historia por miles de armamentista y armas letales autónomas, la idea es que toda
años, habla acerca de la vida 1.0 que serı́an algo similar a ciencia puede usarse para nuevas formas de ayudar o dañar
las bacterias, las cuales no son capaces de aprender nada a lo personas y lo mismo puede aplicarse con la IA, otro principio
largo de su vida, después habla de la vida 2.0 que serı́a el es mitigar la desigualdad de ingresos alimentada con IA y el
ser humano actual, el cual puede aprender cosas nuevas a lo ultimo que se menciona es el aumento en la seguridad de las
largo de toda su vida, compara este proceso de aprendizaje IA para tener sistemas realmente robustos en los que se pueda
con el instalar un nuevo software en una computadora, solo confiar, esta seguridad debe incluir la alineación de valores de
que en vez de ser un programa puede ser un idioma o una IA, lo que traduce en que las metas de las IA estén alineadas
habilidad en particular, después menciona la vida 3.0 que será con las metas del ser humano.
capaz de diseñar su propio software y también su hardware,
pero este tipo de vida aún no existe. El autor menciona que
en este momento se está en un estado de vida 2.1 donde III-C. Destino
existen ya aparatos para mejorar o ayudar a los humanos,
Se habla sobre el destino del futuro de las superinteligencia
como los marcapasos y las prótesis para los amputados, y
artificial, y de cual será el papel del humano cuando llegue
habla sobre la misión del apolo 11 donde se realizó una
este tipo de inteligencia superior, por ejemplo, si se debe
hazaña que parecı́a imposible para nuestros antepasados con
vigilar completamente por el ser humano, o si se debe dar
ayuda de la tecnologı́a, pero se menciona que no solo se
paso a esta como especie dominante, o si se debe ir de la
necesita potencia tecnológica, también se debe saber manejar
mano con la IA en donde la IA sea superior al humano
y tener una dirección clara de hacia donde se está llevando
pero no atente contra este sino que lo ayude, eliminando las
esta tecnologı́a.
enfermedades, la pobreza o el crimen, y además haciéndonos
los maestros de nuestro propio destino.
III-A. Potencia
Por tanto, si los investigadores y creadores de IA son
Se define la inteligencia como la capacidad de lograr cuidadosos se podrı́a llegar a un futuro fantástico en el cual
objetivos complejos y se dice que no solo una criatura hecha de todas las personas estén mejor, pero para esto se debe saber
carne puede ser inteligente, ya que con los avances tecnológi- hacia dónde se está yendo y a cuál es el futuro que se
cos que se tiene en la actualidad como robots que pueden hacer quiere lograr, no se debe ser superado por la tecnologı́a sino
saltos mortales cuando antes no podı́an ni caminar, cohetes empoderado por esta.
con vuelo automático, reconocimiento facial y la superación
de las maquinas en el juego de go y en el ajedrez, por lo IV. D ON ’ T FEAR INTELLIGENT MACHINES . W ORK
que se hace la pregunta de ¿hasta dónde llegara la tecnologı́a? WITH THEM
donde muestra un diagrama de un paisaje done se muestra una
montaña alta que representa el ser humano y un montón de El autor es un reconocido ajedrecista el cual en el año
agua que va subiendo al correr el tiempo lo que representa 1985 se convierte en el menor jugador de mundo, en ese
la IA, por tanto, ¿hasta dónde llegara el agua? se cree que mismo año jugo partidas simultaneas con 32 personas y
va a existir un punto en donde se supere al humano y la también 32 máquinas, pero 12 años después se dio la llamada
IA sea capaz de automejorarse lo que crearı́a la llamada última batalla del cerebro donde el autor se enfrenta a una
superinteligencia, esto generarı́a otra pregunta importante ¿que sola máquina de ajedrez. Se habla sobre la constante batalla
pasara con el ser humano si las maquinas pueden hacer todo del hombre contra la tecnologı́a, como en la revolución
lo que ellos, de una mejor manera y a un precio más barato?. industrial y actualmente con las IA, se dice que estamos en
competencia con la tecnologı́a, o incluso en una guerra, donde
III-B. Dirección se reemplaza al ser humano por máquinas y actualmente hay
muy pocas cosas en las que un ser humano pueda ser mejor
Se habla sobre el ser humano y como su estrategia siempre que una IA, el autor se enfrentó contra la supercomputadora
ha sido aprender de los errores, mostrando ejemplos como el de IBM Deep blue, donde jugo 2 partidas de ajedrez donde
4 UNIVERSIDAD NACIONAL DE COLOMBIA, HUMANOS Y MAQUINAS INTELIGENTES
gano 1 y perdió 1 lo cual marco un hito en la historia, [2] M. Tegmark, How to get empowered, not overpowered, by AI 2018.
pero se dice que este también fue un logro humano ya que
[3] G. Kasparov, Don’t fear intelligent machines. Work with them 2017.
la máquina que derroto al campeón fue desarrollada por
humanos y resalta que la computadora no era inteligente.
R EFERENCIAS
[1] .AI Now Report 2019”, Ainowinstitute.org, 2019. [Online]. Available:
https://ainowinstitute.org/AI-Now-2019-Report.pdf. [Accessed: 10- Abr-
2020].