Está en la página 1de 36

Documento

Título: Desafíos para el Derecho en general, y del consumo en particular. La construcción del nuevo
"Derecho artificial" y la excusa para cambiar el rumbo de la Argentina
Autor: Álvarez Larrondo, Federico M.
Publicado en: RDCO 292, 01/11/2018, 119
Cita Online: AP/DOC/729/2018
Sumario: I. Introito.— II. Las cinco generaciones en un mismo tiempo y lugar. Los analfabetos 4.0.— III.
¿Intimidad? Alguna vez escuché hablar de eso. Exposición en la red.— IV. Las "armas de destrucción
matemática". Calificación crediticia y calificación electrónica. La importancia del habeas data y la dignidad del
consumidor.— V. Publicidad en línea.— VI. ¡Es la inteligencia artificial, estúpido!— VII. Algoritmos
discriminatorios.— VIII. Vehículos autónomos. Uno de los primeros desafíos masivos.— IX. Robots, bots,
cíborgs, androides, programas, ¿sinónimos? Una necesaria diferenciación.— X. (S)er humano, ¿una
minusvalía? Los desafíos a partir de los cíborgs.— XI. ¿Inteligencia artificial y humanoides con personalidad o
productos elaborados?— XII. Corolario. La revolución 4.0. La excusa perfecta para cambiar el destino de la
Argentina.
(*)
A la memoria del hombre que cambió para siempre mi visión del mundo.
Al tan necesario e insustituible maestro, Carlos A. Ghersi.
I. Introito
Soy un principiante digital preocupado por el mundo inmediato.
Cuando Hobbes estaba trazando las grandes líneas del Estado absoluto planteó que lo primero que tenía que
hacer el jurista no era leer libros de derecho sino observar el reloj mecánico, una de las máquinas más avanzadas
de su tiempo (1).
Con esta idea, de un tiempo a esta parte he dedicado mis horas de estudio al nuevo mundo que ya habita
entre nosotros. Ese mismo mundo que día a día comienza a ocupar mayor espacio en los diarios (digitales en su
mayoría). Ese mundo ¿futuro? de la inteligencia artificial, los humanoides, la internet del valor, de la
información, la blockchain y todas las cuestiones vinculadas con estas temáticas.
De seguro no he aprendido suficiente a la fecha, pero sí me ha obligado a pensar y mucho. Una primera
conclusión a la que he arribado, y que me permito esbozar públicamente por vez primera, es que hablar de
"nuevas tecnologías" para referirse a estas temáticas, en verdad no alcanza a evidenciar la magnitud de la
transformación. Es una terminología que en su literalidad denuncia la edad de quienes la forjaron, hijos del siglo
XX.
Estamos en verdad a las puertas de un nuevo mundo "artificial", signado por la inmaterialidad y la
modificación de toda la estructura social tal como la hemos concebido y conocido, y que habrá de demandar
también un nuevo ordenamiento específico que me atrevo a nominar como "Derecho artificial".
Anticipo al lector que es esta la primera vez en la que habré de volcar en el papel muchas de las ideas, dudas
y debates internos que se me han generado a medida que avanzaba en la temática, y sobre los cuales no pretendo
dar respuestas, sino tan solo, desnudar los problemas del corto y mediano plazo, y ofrecer propuestas a los
efectos de su debate público.
Y de seguro que habré de discurrir sobre materias que pese a su estudio constante y dada mi estructura
mental forjada en la educación del siglo XX (en la que todavía pervive la gran mayoría de nuestros centros
educativos), me resultan difíciles, en muchos casos tortuosas. Sólo con un informático al lado se podrá avanzar
en el estudio de los múltiples desafíos que el mundo de algunos años próximos ya nos plantea. Por ello, desde
ya me excuso por los errores y la ignorancia técnica que pueda evidenciar.
Debemos pensar en cómo actuar sobre el mundo que otros (los técnicos), están diseñando en silencio desde
sus laboratorios (y viviendas a partir del trabajo a distancia), y que habrá de constituir el marco social que se nos
impondrá como algo dado en no más de uno o dos lustros. Los fervientes defensores del Estado de Derecho no
podemos seguir regodeándonos en debates propios del siglo pasado, cuando el explosivo mundo artificial se nos
presenta en todo su esplendor. Por ello es que debemos trabajar junto a los forjadores de este nuevo mundo, no
para obstaculizar su tarea (o sí, esto resultará de los necesarios debates), pero sí para evitar que se genere una
"dictadura" de los científicos (el nuevo peligro que nos azota), para lo cual debemos desde el Derecho fijar
reglas de juego básicas y claras que permitan avizorar un mundo que debe ser necesariamente humano. Como
sostenía Peter Drucker, "la planificación a largo plazo no es pensar en decisiones futuras, sino en el futuro de las
decisiones presentes".

© Thomson Reuters Información Legal 1


Documento

El desafío es mayúsculo. Sin embargo, ello no debe amilanarnos, ni intimidarnos como para abandonar
tamaña empresa. ¿Es un esfuerzo mayor? sí. ¿Y uno corre el serio riesgo de quedar en ridículo frente a las
nuevas generaciones? Lo sé. Pero son situaciones que debemos vivir en el camino de este nuevo aprendizaje que
la vida nos propone... como condición de supervivencia.
II. Las cinco generaciones en un mismo tiempo y lugar. Los analfabetos 4.0
El estadio actual de la humanidad nos presenta una situación nunca antes vivida. Asistimos en los albores
del siglo XXI —producto de la aceleración de los cambios tecnológicos y de la prolongación de la esperanza de
vida—, a la convivencia contemporánea de, al menos, cuatro marcos históricos y cognoscitivos muy distintos,
en un mismo tiempo y lugar. Esto rompe con todo lo conocido hasta la actualidad, impactando en quienes
escriben sobre derecho, quienes legislan, y quienes proyectan políticas de Estado.
Es menester entender este fenómeno sin registros en la historia de la humanidad, dado que las cuatro
generaciones evidencian patrones de conducta y entorno social cotidiano totalmente distintos entre sí, pero se
mueven en el mismo territorio, y bajo un régimen legal común para todos ellos, aun cuando son radicalmente
diferentes.
Previamente, la matriz tecnológica daba saltos en espacios temporales mucho más amplios, lo que permitía
la absorción de los nuevos conocimientos y de los entornos por parte de las viejas generaciones con carácter
general. Esto ha desaparecido en este siglo XXI, donde bisabuelos, abuelos, padres e hijos, conviven con una
estructura mental y social absolutamente distinta entre cada uno de ellos.
Usemos las clasificaciones tan útiles en el mercado de la publicidad a fin de graficar lo expuesto. En el
mismo, podemos encontrar los siguientes grupos según su rango etario, extremo que va de la mano con su
posición ante la tecnología.
II.1. Los baby boomers (nacidos entre 1945 y 1964)
Dentro de este grupo se encuentran los nacidos post Segunda Guerra Mundial y que ocupan la anteúltima
casilla en la clasificación (propia de los nacidos antes del 45'). Son los últimos resabios de la sociedad del
trabajo, que viven a su ocupación como modo de ser y de existir. Esta generación se caracteriza por su lealtad
con las marcas, al igual que por un estilo de vida enfocado en el trabajo; de allí surge la expresión "trabajólicos"
o workaholics. Rastrean mensajes personalizados mediante eventos sociales, un correo directo y conversaciones
cara a cara que se enmarquen por su reconocimiento.
Los mismos nacieron en un entorno signado por la televisión y la radio. Un sector mayoritario no se
encuentra familiarizado con las nuevas tecnologías.
II.2. La Generación X (nacidos entre 1965 y 1981)
Son los que vieron el nacimiento de Internet y los avances tecnológicos. Están marcados por grandes
cambios sociales.
Como son una generación en transición —se los llamó Generación Perdida e incluso Generación Peter
Pan— pueden hacer convivir equilibradamente la relación entre tecnología y vida social activa "presencial":
tienen participación dentro de los eventos de su comunidad.
Están marcados por unos cambios mundiales como la formación de la Unión Soviética, la Guerra Fría, la
caída del Muro de Berlín, la Perestroika y el nacimiento de Internet. En consecuencia, se identifican con la
tecnología, aunque son adoptantes de la misma.
Se proclaman diferentes a los baby boomers, culpan con frecuencia a los millennials y por estas razones se
identifican con mensajes como: "hacerlo a su manera" o "usted es diferente y lo respetamos" (2).
Son los padres de los millennials, y hacen esfuerzos adaptativos a la vertiginosidad de la generación que les
sigue.
II.3. Generación Y o millennials (nacidos entre 1982 y 1994).
Esta categoría nació con el momento de expansión de las nuevas tecnologías, por lo que se encuentran muy
adaptados a ellas.
La vida virtual es una extensión de la vida real, aunque conservan algunos códigos de privacidad en relación
con lo que exponen o no en Internet, a diferencia de los centennials, que comparten todo.
Son multitasking. Este término deriva de multitask, que proviene del ambiente tecnológico, en el cual se
utiliza el término para identificar a los ordenadores o dispositivos que pueden realizar varias tareas a la vez.
Aplicado a las personas, se usa para definir a aquellos empleados que consideran que pueden realizar varias
tareas a la vez con eficacia.
© Thomson Reuters Información Legal 2
Documento

No dejan la vida en el trabajo, no son workaholics (quizá observaron que sus padres sí lo fueron, y lo hacen
distinto), y resultan aficionados a la tecnología del entretenimiento: usuarios de las salas de chat en los '90 y
ahora de redes de citas. Pasaron por todo: SMS, Reproductor de CD, MP3, MP4, DVD.
Aman viajar, conocer el mundo y subir las fotos a las redes.
II.4. Generación Z o centennials (nacidos a partir de 1995 y hasta el presente)
Estos son los verdaderamente "nativos digitales" dado que desde su niñez usan Internet, y la incorporan con
la misma naturalidad, que antaño los baby boomers lo hicieron con el televisor.
Son autodidactas, aprendiendo a través de tutoriales; creativos, dado que incorporan rápido nuevos
conocimientos y relacionan bien los mismos, y sobreinformados, con alta propensión al consumo de
información y entretenimiento.
Visitan redes que sus padres no: un ejemplo es Snapchat. Comparten contenido de su vida privada, aspiran a
ser youtubers. Su vida social pasa en un alto porcentaje por las redes. Nada de la tecnología les es ajeno y pasan
mucho de su tiempo "frente a pantallas".
Estudios recientes aseguran que están expuestos a dispositivos, un promedio de cuatro veces más tiempo del
recomendado. A los miembros de la Generación Z les gusta construir comunidades en línea; sienten y perciben
al mundo más cercano, con amigos virtuales y empoderados de la tecnología. El planeta es una gran aldea y la
hiperconectividad es "lo normal" para ellos.
II.5. El impacto de las diferencias de conocimiento tecnológico en la conformación de la estructura social
Es claro entonces, que existen en la actualidad generaciones como la de los baby boomers, que no han sido
parte de la ola digital, y que no tienen motivos ni interés para subirse a la misma, cuando ya están llegando a la
playa. Su "mundo" es el barrio, la televisión y la radio. Y aún compran el diario en soporte papel, porque su
historia y costumbre se edificó en torno a esa estructura social circundante, que formó su cuadro mental. De allí
que en líneas generales, el "CD", el pendrive, el mail, el streaming, sean términos que no forman parte de su
vocabulario, ni de su diario acontecer.
Y este quiebre generacional se vislumbra con algunos ejemplos evidentes, pero a los que no prestamos
debida atención. ¿No resulta llamativo que en la década de los noventa, un programa de televisión como
"Grande Pá" (3)alcanzara los 63 puntos de rating, mientras que en la actualidad, el programa más visto no llega
siquiera a los 20? Esta es una muestra como pocas de la mutación y el quiebre en las conductas de los cuatro
grandes grupos sociales.
Es que la televisión abierta es un servicio consumido por los baby boomers, y gran parte de la Generación
X. Sólo ellos viven en ese marco social, y ven el mundo a través de dicho entorno.
Según un informe realizado en los Estados Unidos sobre el consumo de TV paga, la baja de audiencia en la
franja de 12 a 17 años fue del 56% entre 2010 y 2018; respecto a la pérdida de rating en la franja de 18 a 24
años, la cifra alcanzó el 48%; entre los 25 y los 34 años, la caída fue del 34%. A partir de los 35 años se
observan cambios. La pérdida en la franja de 36 a 50 años fue de un 18% (precisamente, la generación X), en
tanto que en el público entre 50 y 64 años, la pérdida fue de sólo 1%. Pero el grupo que conforma la
"resistencia" se ubica por sobre los 65 años, donde el encendido ha aumentado un 8%, producto a su vez de la
extensión de la esperanza de vida, y una camada de adultos mayores mucho más activos. Los mismos
parámetros se dan respecto a las horas de encendido (4).
De allí su caída abrupta que se irá profundizando cuanto menos integrantes de estas generaciones
sobrevivan, obligando a una reconversión que ya está ocurriendo, donde el producto ya no está pensado para el
día de emisión, sino para su consumo posterior vía streaming, en plataformas como las propias de los canales,
las prepagas, o las públicas. Y lo mismo sucede con las radios AM (Amplitud Modulada), que constituyen un
refugio casi exclusivo de los baby boomers y la generación anterior a esta.
En tanto, parte de la generación X se reparte entre el diario en papel y el digital, entre la televisión y
servicios de películas por streaming, entre la FM (Frecuencia Modulada) y la música a demanda, pero no son
todavía sujetos netamente tecnológicos.
Son los millennials y fundamentalmente los centennials, los que recién pueden considerarse "nativos
tecnológicos", quienes viven en YouTube, se contactan por Snapchat, y en menor medida Instagram. Para ellos,
el papel es un problema porque su plataforma y manera de comunicación es netamente virtual.
Los libros son una imposición de los baby boomers que ofician de docentes en las escuelas, las cuales a su
vez, responden a un modelo estructurado sobre los formatos del siglo XIX.

© Thomson Reuters Información Legal 3


Documento

De allí que debamos preguntarnos si es posible seguir dictando en algunas materias, normas generales, o si
no resultará necesario comenzar a dictar normas específicas para cada grupo etario, como lo propusimos al
tiempo de analizar el derogado art. 169 del DNU 27/2018 reemplazado por la ley 27.444.
Este es uno de los primeros desafíos que nos plantea el advenimiento de este "mundo artificial".
II.5. Los analfabetos 4.0 o analfabetos digitales
Tamaño avance tecnológico ha superado la distinción entre analfabetos y lectoescritores. Hoy asistimos a un
nuevo desafío propio de estos tiempos, el de los "analfabetos informáticos o digitales". El analfabetismo digital
es concebido como el nivel de desconocimiento de las nuevas tecnologías, que impide que las personas puedan
acceder a las posibilidades de interactuar con éstas, es decir, por una parte navegar en la web, disfrutar de
contenidos multimedia, socializar mediante las redes sociales, crear documentación, discriminar información
relevante de la superflua, etcétera.
La tutela de estos sectores se torna absolutamente necesaria, máxime en el campo de las relaciones de
consumo digitales o "artificiales".
III. ¿Intimidad? Alguna vez escuché hablar de eso. Exposición en la red
Uno de los primeros derechos que resultan vulnerados por la construcción de este novel sistema artificial, es
el de la intimidad. Todos nuestros gustos, elecciones y decisiones —antes reservados al fuero íntimo o
compartido con el grupo más cercano—, hoy se encuentran en manos de terceros que construyen el mundo y,
fundamentalmente, los negocios que se estructuran con base en ellos.
Mucho se luchó por la protección de un ámbito reservado donde ser "libres". Es menester recurrir como cita
obligada al famoso artículo publicado en 1890 por Samuel Warren y Louis Brandeis en la Harvard Law Review,
intitulada "The Right to Privacy". Con el mismo dieron cuerpo al "derecho a la intimidad" en el intento de dar
respuesta al por entonces "novedoso" fenómeno de la toma de fotografías por parte de periodistas, sin contar
con el consentimiento del titular de la imagen.
En nuestro país, resultó un punto de inflexión el recordado leading case "Ponzetti de Balbín" del año 1984,
fundado en el reclamo de la viuda del ex líder de la Unión Cívica Radical Ricardo Balbín, por haberse publicado
en tapa de un medio gráfico una fotografía tomada sin el consentimiento de aquel o de sus familiares, mientras
el mismo se hallaba internado en terapia intensiva.
Allí, bien vale recordarlo para las generaciones nóveles, la Corte Suprema de Justicia de la Nación consagró
claramente que "El derecho a la privacidad e intimidad se fundamenta constitucionalmente en el art. 19 de la ley
suprema. En relación directa con la libertad individual protege jurídicamente un ámbito de autonomía individual
constituida por los sentimientos, hábitos y costumbres, las relaciones familiares, la situación económica, las
creencias religiosas, la salud mental y física y, en suma, las acciones, hechos o actos que, teniendo en cuenta las
formas de vida aceptadas por la comunidad están reservadas al propio individuo y cuyo conocimiento y
divulgación por los extraños significa un peligro real o potencial para la intimidad" (5).
De aquella lucha a este presente, parece que hubieran pasado siglos. Para las nuevas generaciones la
intimidad no sería un valor en sí mismo. Ello es producto de un modelo de sociedad virtual, paralela a la real,
pero sobre todo, hija de la ignorancia de la ciudadanía sobre el uso de nuestros datos.
Sin saberlo, o mejor aún, sin comprender lo que hay detrás de cada dispositivo y de cada conexión a la red,
los humanos vamos dejando nuestro patrón de gustos, conductas, amistades, y preferencias, que sirven para
etiquetarnos, sin tomar real conciencia de ello.
Si nos detuviéramos a leer los "términos y condiciones" de cada aplicación, creo que el grueso del mundo se
asustaría. Sólo eso. Dado que pese al sopor que le generaría saber que su vida es una vidriera, no podría impedir
la necesidad de utilizar igualmente el servicio por el simple hecho de vivir en este tiempo y lugar.
Veamos a guisa de ejemplo, el punto 4 del régimen impuesto por Apple, en la última actualización de IOS.
Allí se lee:
"4. Consentimiento para la utilización de datos. Cuando utilizas tu dispositivo, tu número de teléfono y
determinados identificadores únicos para tu Dispositivo iOS se envían a Apple para que otros usuarios puedan
localizarte por tu número de teléfono desde las diferentes funciones de comunicación que ofrece el Software
iOS, como iMessage y FaceTime. Cuando utilices iMessage, Apple podría almacenar tus mensajes en formato
encriptado durante un tiempo limitado para garantizar su entrega. Puedes desactivar FaceTime o iMessage
mediante los ajustes de FaceTime o Mensajes de tu Dispositivo iOS. Determinadas funciones como Análisis,
Localización, Siri y Dictado pueden requerir información de tu Dispositivo iOS para poder utilizarse. Cuando
actives o utilices estas funciones, se proporcionará información detallada referente a los datos enviados a Apple

© Thomson Reuters Información Legal 4


Documento

y cómo se utilizarán dichos datos. Puedes obtener más información en la página https://www.apple.com/es/
privacy/. Tus datos se tratarán en todo momento de acuerdo con la Política de privacidad de Apple, que puede
consultarse en: https://www.apple.com/legal/privacy/".
En cuanto al uso de mapas, dispone:
"(d) Mapas. Las funciones y el servicio de mapas del Software iOS ("Mapas"), incluida la cobertura de los
datos del mapa, pueden variar de una región a otra. Cuando uses cualquier función basada en la ubicación
dentro de Mapas, como la navegación paso a paso, el tráfico y la búsqueda local, podría enviarse a Apple
información relacionada con la ubicación y el uso, como la ubicación geográfica en tiempo real de tu
Dispositivo iOS, con el fin de procesar tu solicitud y ayudar a mejorar Mapas. Dichos datos de ubicación y uso
son recopilados por Apple de modo que no se te pueda identificar personalmente. Al utilizar Mapas, aceptas y
consientes la transmisión, obtención, mantenimiento, procesado y uso por parte de Apple, sus filiales y agentes
de esta información, con el fin de proporcionar y mejorar las funciones y el servicio de Mapas, y otros
productos y servicios de Apple. Apple también puede proporcionar dicha información —ya sea de manera
conjunta o de una forma que no se te identifique personalmente— a sus socios y a aquellos a los que Apple haya
dado permiso para ayudar a mejorar sus productos y servicios de localización y mapas. Puedes desactivar la
funcionalidad basada en la ubicación de Mapas entrando en la sección Localización de tu Dispositivo iOS y
desactivando el ajuste de localización de Mapas. No obstante, determinadas funciones de Mapas dejarán de estar
disponibles si desactivas el ajuste Localización, como la navegación paso a paso".
Y en cuanto a las fotografías refiere:
"j) Por otro lado, los Servicios y los Materiales de terceros a los cuales pueda accederse o que puedan
mostrarse o enlazarse a través del Dispositivo iOS no están disponibles en todos los idiomas ni en todos los
países o regiones. Apple no formula declaración alguna relativa a la adecuación o disponibilidad de dichos
Servicios o Materiales de terceros en una zona en particular. En la medida en que decidas utilizar o acceder a
dichos Servicios y Materiales de terceros, lo harás por tu propia iniciativa y asumirás la responsabilidad del
cumplimiento de todas las leyes aplicables, incluidas a título enunciativo y no limitativo, las leyes locales
aplicables y la legislación relativa a la privacidad y la recopilación de datos. Al compartir o sincronizar fotos
mediante el Dispositivo iOS, podrían transmitirse metadatos junto con las fotos, incluidos los datos de
ubicación, fecha y hora, así como información sobre la profundidad. El uso de los servicios de Apple (como la
fototeca de iCloud) para compartir o sincronizar dichas fotos supondrá que Apple reciba y almacene los
mencionados metadatos. Apple y sus licenciantes se reservan el derecho a modificar, suspender, retirar o
bloquear el acceso a cualquiera de los Servicios en cualquier momento y sin previo aviso. Apple no será en
ningún caso responsable de la eliminación o desactivación del acceso a tales Servicios. Asimismo, Apple puede
imponer límites al uso o acceso a determinados Servicios, en cualquier caso y sin preaviso ni responsabilidad".
Claramente nos informan que todos nuestros datos, imágenes, fotografías individuales o grupales, registros,
movimientos, etc., están siendo recopilados y tratados por terceros desconocidos. ¿Quiénes son los socios de
Apple a los cuales se autoriza el uso de estos datos? ¿Y sus filiales y agentes? ¿Y los terceros a los que hace
referencia? Toda nuestra vida reposa en una granja de servidores que acumulan información sobre cada detalle
de nuestras vidas y que es utilizada en pos de optimizar la tasa de ganancia de sus operadores, siempre en
desmedro de los intereses y derechos de los consumidores. Y esa alegada "información" a la que juegan a ser los
"Términos y Condiciones", es para para nosotros una advertencia difusa (y falaz) que no cumple tan siquiera
con ese carácter, máxime cuando estamos en muchos casos, dejando rastros de datos sensibles cuyo acopio se
encuentra expresamente prohibido por el ordenamiento legal (6). Pero lo más preocupante en verdad, es que
estamos dotando de poder a la herramienta que habrá de signar la suerte de nuestra vida futura, tal como lo
veremos al tiempo de analizar las ADM o Armas de Destrucción Matemáticas.
Pero lo peor es cuando esta renuncia a la intimidad es otorgada de manera "voluntaria" por partes de los
usuarios, tentados por la lógica capitalista de ahorrar a través de "descuentos".
En fecha reciente hizo su aparición en nuestro mercado vernáculo una publicidad de compañía de seguros
que llamó mi atención por su título "Pagá tu seguro según cuánto y cómo manejás". Pensé que me iba a topar
con una nueva versión del sistema de scoring que valúa al cliente según sus antecedentes de siniestros y
colisiones. Pero no. El spot era mucho más "novedoso", por lo que me dirigí a la página web de la empresa y allí
pude leer lo siguiente:
"Todo Riesgo Conectado es un nuevo producto que utiliza la información real del tiempo y estilo de manejo
del vehículo, permitiendo generar descuentos sobre el valor de tu póliza. ¿Cómo funciona Todo Riesgo
Conectado?
"Es muy simple. En el proceso de inspección, se instala un dispositivo en tu auto con el que se podrá medir
© Thomson Reuters Información Legal 5
Documento

tu estilo de conducción en base a: distancias, horarios, tipo de vías (ruta-ciudad-autopistas-etc.), aceleración,


frenadas, entre otras. Estas variables te permitirán acceder a un descuento en el valor de tu póliza que podrás ir
siguiendo desde nuestra APP "Seguros SURA".
Según indica la empresa, el puntaje de manejo que me asigna un algoritmo "se transforma en un porcentaje
de descuento que se aplicará directamente a tu facturación. De esta forma, sabrás de antemano qué descuento
vas a encontrar al finalizar el período e incluso podrás ir mejorando tus habilidades como conductor para hacer
crecer ese descuento".
La invasión a la privacidad de este sistema me alarmaba. Pero más aún cuando a continuación leí las "otras
funcionalidades" ofrecidas. "¿Dónde está mi auto? El dispositivo te permitirá saber el lugar desde donde tu auto
reportó la señal por última vez.
"Mis viajes. La herramienta contará con información de cada viaje realizado.
"Visualización y descarga de documentación.
"Denuncia de siniestros.
"Solicitud de asistencias".
Como se ve, el usuario entrega su bitácora de vida, sus "memorias" en tiempo real, por el depreciado
anzuelo de un "descuento", es decir, tan sólo por la promesa de un gasto menor, ya no de un ingreso.
Al llegar a las preguntas frecuentes, surge un primer llamado de atención. Es que de su compulsa surge que
el sistema se presenta opaco, dado que no brinda información alguna respecto de la conformación del algoritmo
que habrá de resolver sobre el porcentual de descuento. Por el contrario, revestido de pretensa información,
simplemente se refiere:
"¿De qué forma se implementan los descuentos? Una vez que el dispositivo se encuentre incorporado en tu
vehículo, comenzará a utilizar la información generada en tiempo real, contemplando tu estilo de manejo, y de
esta manera, se aplicarán los descuentos generados en tu próxima facturación".
Creemos que este tipo de servicios deben brindarse con una advertencia de la misma entidad y destacado
que el utilizado para promocionarlo, donde se exprese claramente el detalle del contenido de toda la
información que habrá de ser recopilada, el uso que se hará de la misma, la posibilidad de su transferencia a
terceros, a quienes se autoriza a remitirla, con qué finalidad, y las implicancias que puede tener para el usuario
el hecho de que su línea de vida, lugares visitados, pautas de conductas, viajes realizados, cocheras utilizadas, y
trayectos cotidianos, se encuentre en manos de un tercero. Ello, claro está, además de explicitar en detalle y con
claridad, el cúmulo de medidas de seguridad adoptadas para evitar que tercero ajenos puedan acceder
malsanamente a los datos recopilados.
Este punto evidencia la violación constante que se produce en la red del derecho constitucional al trato
equitativo y digno (art. 42 CN y 8º bis ley 24.240).
Este punto requiere de un análisis mucho más profundo, propio de un estudio específico, que desborda la
finalidad de este trabajo.
IV. Las "armas de destrucción matemática". Calificación crediticia y Calificación electrónica. La
importancia del habeas data y la dignidad del consumidor
IV.1. La falsa creencia de la asepsia de los sistemas informáticos
El problema en la era de la economía del big data está dado por la convicción de que las computadoras son
capaces de procesar miles de currículums o solicitudes de préstamos en un par de segundos, con los candidatos
más prometedores situados en los primeros puestos, realizando dicha tarea siempre de manera justa y objetiva
(además de veloz y barata). Ello, atento creer que son procesos en los que no hay seres humanos con sus
prejuicios escarbando montones de papeles, sino simplemente máquinas procesando números de manera
objetiva. Sin embargo, esta afirmación parte de una premisa falsa.
Es que todos estos sistemas han sido concebidos por un humano, con sus preconceptos y cargas morales. De
allí que en verdad, el grueso de estos modelos matemáticos en líneas generales sean opacos y sus mecanismos
resulten invisibles para todos, menos para los sumos sacerdotes del sector, esto es, los matemáticos y los
ingenieros informáticos que los pergeñan y elaboran.
A este tipo de modelos perniciosos que además pueden cargar con errores, una excelente obra de Cathy
O'Neil los denomina "armas de destrucción matemática" o ADM (7). Sostiene la matemática en su brillante obra,
que en las ADM hay muchas premisas perniciosas camufladas bajo la solemnidad de las matemáticas Y se
mantienen sin que nadie las verifique ni las cuestione, lo que le permite establecer otra característica común de

© Thomson Reuters Información Legal 6


Documento

las ADM, cual es que suelen castigar a los pobres.


Esto se debe en parte a que han sido diseñadas para evaluar grandes cantidades de personas. Están
especializadas en trabajar con grandes volúmenes y son baratas, lo que forma parte de su atractivo. Los ricos en
cambio, según explica O'Neil, reciben a menudo un trato más personal. Por caso, un estudio de abogados de
clase alta o un exclusivo instituto privado, se basará para la selección de su personal en recomendaciones y
entrevistas personales, situación que no se dará en una cadena de comida rápida o un distrito escolar urbano con
escasos fondos.
Los privilegiados son analizados por personas, mientras que las masas hoy lo son por máquinas
preprogramadas.
Esto nos plantea el reto de enfrentar (y actuar) desde el derecho, contra lo que me he atrevido a definir como
la "dictadura" de los científicos, quienes a través de sus algoritmos diseñan la estructura social futura, sin
marcos legales que les impongan un deber ser acordado previamente por el común de la sociedad.
Así, sin que el sistema político ni judicial se lo cuestione, se nos hace creer aún a quienes contamos con la
suerte de haber recibido educación universitaria (y que sólo por ello, deberíamos contar con espíritu crítico y
cuestionador), que los veredictos de los sistemas automatizados son verdades incuestionables, producto de su
complejidad, su asepsia, su automaticidad, y (por sobre todo) casi nula posibilidad de comprensión por parte de
quienes carecemos de conocimientos específicos en ingeniería informática.
Y para colmo, recubiertos de la protección otorgada por el derecho de patentes, que concede el derecho de
oponerse a dar a conocer su contenido y conformación, bajo el pretexto de estarse afectando precisamente su
derecho constitucional de propiedad.
Esto les ha asignado a estos sistemas una suerte de halo místico, contra el cual las otras ciencias parecen no
poder ni querer levantarse, so riesgo de ser tildadas de herejes, ateas, o peor aún, de retrógradas e ignorantes.
Sin embargo, hay algo fundamental en cada programa informático presentado como aséptico y es que en su
origen, insisto, hubo un humano con sus intereses e ideologías (aún inconscientes), diseñando sus futuras pautas
de actuación.
Y ello de por si es determinante para requerir la necesaria intervención del ordenamiento jurídico.
Recurramos por ejemplo al simple recurso de la voz del GPS que según parámetros que desconocemos, nos
anoticia sorpresivamente al transitar con nuestro vehículo por una autopista, que nos estamos acercando a una
"zona peligrosa". Tal afirmación habrá de ser el resultado de la provisión de una serie de datos estadísticos que
ignoramos, pero que importa el dictado de una sentencia estigmatizante para todo ser humano que habite en
dicho lugar, sin importar cuál ha sido su comportamiento a lo largo de su vida. La voz matemática ha hablado.
Y es entonces el solo hecho de vivir en una zona geográfica determinada por el navegador satelital, lo que le
indica al resto del mundo que deberá tomar recaudos en caso de encontrarse cercano a ella, en virtud de la
alegada certeza que nos brindan una serie de algoritmos pretendidamente predictivos e independientes de toda
intervención humana (lo cual como hemos dicho, es falso).
Y uno lo escucha en su aplicación, y sin preguntarse cuál es la razón para que el sistema "inteligente" brinde
semejante dictamen, hunde el pie en el acelerador intentando escapar de ese riesgo potencial que el sistema nos
presenta como verdad comprobada. Esta es una constante de las ADM.
El riesgo que enfrenta la sociedad en su conjunto, y que debe ser preocupación fundamental del derecho en
vista al futuro próximo, es precisamente la creencia instalada en los espacios políticos, judiciales y científicos,
de que no es posible apelar la decisión de un sistema informático en virtud de su carácter técnico y algorítmico.
Esto conforma en parte su terrible poder, dado que los mismos no escuchan, no se doblegan y son sordos, no
sólo al encanto, las amenazas y las adulaciones, sino también a la lógica, incluso cuando hay buenas razones
para cuestionar los datos que alimentan sus conclusiones. En casi todos los casos, los programas emiten
veredictos inquebrantables. Para tomar conciencia de la importancia del tema sometido a estudio, vale recordar
que los modelos matemáticos —como habremos de ver— microgestionan la economía, la publicidad, y hasta las
cárceles. Insisto, son opacos, nadie los cuestiona, no dan ningún tipo de explicaciones y operan a tal escala, que
clasifican, tratan y "optimizan" a millones de personas.
Como sostiene O'Neil, en muchas de las empresas que utilizan estos algoritmos el dinero que ganan a
raudales parece demostrar que son modelos que funcionan bien. El problema es que los beneficios, acaban
actuando como un valor sustitutivo de la verdad. Esto ocurre, como lo reconoce la autora, porque los científicos
de datos se olvidan con demasiada frecuencia de la gente que está al otro lado de las transacciones (8).
IV.2. Los modelos matemáticos predictivos

© Thomson Reuters Información Legal 7


Documento

Nos enfrentamos entonces a los modelos matemáticos predictivos (ADM).


Un modelo no es más que una representación abstracta de ciertos procesos. Independientemente de que se
ejecute en un programa de ordenador o en nuestra cabeza, el modelo toma lo que sabemos y lo utiliza para
predecir respuestas en distintas situaciones. Todos tenemos miles de modelos en la cabeza. Nos dicen qué
esperar y nos guían a tomar decisiones.
Bien ejemplifica O'Neil, que organizar la alimentación de la familia es un modelo (9). Los datos de entrada
de cada modelo interno para cocinar, son la información que se tiene sobre la familia, los ingredientes a mano o
disponibles, la energía, tiempo y ambición. El resultado es lo que se decide cocinar y cómo.
Luego se evalúa el éxito en función de lo satisfecha que queda la familia, de cuánto han comido y cuanto
han disfrutado. Ello permite actualizar el modelo para la próxima vez que cocine. Las actualizaciones y los
ajustes lo convierten en lo que los estadísticos denominan un "modelo dinámico". Este modelo interno, podría
ser cargado en un programa informático. Uno ideal incluiría todas las opciones de comida disponibles, su valor
nutricional y su costo, así como una base completa de los gustos familiares con las comidas que prefieren y las
que no les gustan a cada uno de ellos. Incorporaría también algunos parámetros y limitaciones, como los dulces
a un límite que no genere la rebelión familiar. Si se cargaran estos datos a lo largo de meses, se obtendría un
modelo formal externo. Habría creado entonces un "yo" automatizado que otros podrían ejecutar cuando no
estoy. Esta explicación de O'Neil resulta brillante, por cuanto nos permite entender que al crear un modelo,
tomamos decisiones sobre lo que es suficientemente importante como para incluirlo en el mismo. Y aceptamos
que el modelo se comportará conforme lo programado, presentando enormes puntos ciegos. A veces los puntos
ciegos de un modelo no tienen ninguna importancia. Cuando pedimos a Google Maps que nos indique cómo
llegar a un lugar, el mismo modela el mundo como una serie de carreteras, túneles y puentes. Ignora los
edificios, porque no son relevantes para la tarea. Cuando el software de aviónica guía a un avión, modela el
viento, la velocidad del avión y la pista de aterrizaje en tierra, pero no las calles, los túneles, los edificios, ni las
personas. Los puntos ciegos de un modelo entonces, reflejan las opiniones y prioridades de sus creadores. En los
casos antes citados parecen claras y sencillas. Pero otras son mucho más problemáticas.
Vemos entonces que los modelos, a pesar de su reputación de imparcialidad, reflejan objetivos e ideologías.
Cuando eliminamos la posibilidad de tomar dulces en todas las comidas, estamos imponiendo nuestra
ideología en el modelo de las comidas. Son cosas que hacemos sin detenernos a reflexionar. Nuestros propios
valores y deseos influyen en nuestras elecciones, desde los datos que decidimos recopilar hasta las preguntas
que hacemos.
Los modelos son opiniones integradas en matemáticas.
Por ello es obligación para el operador jurídico, preguntarse en cada caso no solo quién diseñó el modelo,
sino también, qué es lo que la persona o la empresa en cuestión intenta lograr con él.
¿Y por qué es importante su abordaje desde el derecho del Consumo? Porque como bien sostiene O'Neil,
"nos modelan como clientes y telespectadores tirados en el sofá, como pacientes y solicitantes de préstamos, y
apenas nos damos cuenta —incluso en los formularios que firmamos alegremente—" (10).
Estas ADM son por su diseño, en la mayoría de los casos, una suerte de cajas negras inescrutables. Y ello
hace muy difícil respondernos preguntas tales como ¿opera el modelo en contra de los intereses del sujeto?; ¿es
injusto?; ¿daña o destruye vidas? A su vez, ¿esos modelos tienen capacidad de crecer exponencialmente? Es que
es la escala lo que marca la diferencia entre que un ADM sea una pequeña molestia localizada o un auténtico
tsunami que define y delimita nuestras vidas. Como bien sostiene O'Neil, las ADM en desarrollo en los sectores
de recursos humanos, la salud y la banca, por mencionar solo algunos, están estableciendo con rapidez normas
generales que ejercen sobre nosotros una fuerza similar al poder de la ley.
Es que si un banco nos clasifica como prestatarios de alto riesgo, el mundo entero nos tratará como poco
afectos al trabajo, aun cuando haya mediado un error del "sistema". Y como veremos a continuación, si el
modelo alcanza una gran escala, afectará todos los aspectos del ciudadano/consumidor, dado que determinará si
tendrá acceso a una hipoteca, si conseguirá empleo, o hasta pareja.
De allí, que compartamos los tres elementos que O'Neil señala como característicos de un ADM: la
opacidad, la escala y el daño. Estos son los ejes con los cuales debe emprenderse cualquier tipo de análisis.
IV.3. Calificación electrónica. Necesidad de regulación
Decíamos que las clasificaciones que efectúan las ADM, son las que habrán de marcar nuestra suerte y
camino vital. Y no exageramos. Las clasificaciones de los usuarios ganaron carta de ciudadanía en el marco del
Sistema financiero, bajo la promesa de que la información en poder de los prestamistas respecto del

© Thomson Reuters Información Legal 8


Documento

comportamiento previo del solicitante, permitiría reducir el riesgo en la concesión de créditos a sujetos con
incapacidad financiera para honrar sus compromisos, lo cual reduciría la tasa de morosidad, con ello el riesgo
previsionado en la tasa de interés, y como resultado, en una reducción del costo del dinero para quienes
mostraran un dossier impoluto.
La realidad argentina demuestra claramente que ello es absolutamente falso, y que tan sólo ha permitido
declarar la muerte civil de cientos de miles de consumidores aporreados por tasas de interés usurarias y crisis
económicas endémicas. Pero ese debate es propio de otro trabajo.
Así entonces, de la vieja imagen del banquero decidiendo la suerte de nuestra petición, se pasó a este
sistema inmaterial, donde es un algoritmo el que decide "asépticamente" nuestra suerte al tiempo de peticionar
un crédito.
El salto comenzó con la obra del matemático Earl Isaac y su amigo, el ingeniero Bill Fair, quienes diseñaron
un modelo que llamaron FICO destinado a evaluar el riesgo de que una persona incumpla el pago de un crédito.
La calificación FICO se obtenía mediante una fórmula que analizaba únicamente las finanzas del prestatario,
fundamentalmente la carga de la deuda y su historial de pago de facturas.
Esta calificación crediticia no tenía en cuenta el color de piel ni el sexo.
Señala O'Neil que resultó algo fantástico para el sector de la banca, porque predecía el riesgo de una forma
mucho más precisa, al tiempo que abría las puertas a millones de nuevos clientes. Las calificaciones crediticias
FICO siguen existiendo y son utilizadas por todas las agencias de calificación crediticia, que añaden distintas
fuentes de información para producir sus propias calificaciones.
Estos sistemas tienen lo que se denomina "bucle de retroalimentación" transparente, dado que las
calificadoras pueden comparar sus calificaciones con el nivel de cumplimiento y así, en caso de comprobar que
los que obtuvieron calificaciones altas (positivas), tiempo después parecen no poder hacer frente a sus
préstamos con más frecuencia de lo previsto por el modelo FICO, podrán ajustar los modelos para que sean más
precisos.
Dichas calificaciones también son relativamente transparentes, dado que la página web de FICO ofrece
instrucciones sencillas sobre cómo mejorar la calificación (reducir las deudas, pagar las facturas a tiempo y no
solicitar más tarjetas de crédito). Además, al igual que en nuestro país, el sistema está regulado estableciendo la
ley que todo el que tenga dudas sobre su calificación tiene derecho a pedir y recibir un informe crediticio en el
que se debe incluir toda la información que es evaluada en el cálculo de la calificación, y si se constata un error,
se cuenta con el derecho de peticionar que se corrija. Similar a nuestra ley 25.326 de Protección de Datos
Personales y Bases de Datos (Cap. III, "Derechos de los titulares de datos").
Pero el problema es que ahora nos enfrentamos a otro desafío: el de las denominadas "calificaciones
electrónicas".
Las calificaciones electrónicas se nutren ya no sólo del sistema FICO, sino que elaboran un perfil de nuestra
personalidad combinando todo tipo de datos y de todas las maneras posibles, desde nuestros códigos postales,
nuestros patrones al navegar por Internet, hasta nuestras últimas compras. Estos modelos pseudocientíficos
intentan predecir la solvencia crediticia (entre otras muchas cosas). Según O'Neil, estas son ADM.
La autora da cuenta de un caso que requiere su transcripción.
"La empresa Neustar, de Virginia, nos ofrece un claro ejemplo. Neustar ofrece servicios de identificación de
clientes para empresas como, por ejemplo, un servicio que facilita la gestión del tráfico de llamadas de los
centros de atención telefónica. Para explicarlo de forma muy sencilla, podemos decir que esta tecnología revisa
los datos disponibles sobre las personas que están llamando y las ordena en una jerarquía. Los que aparecen en
la parte superior son supuestamente los posibles clientes que resultarán más rentables, por lo que se les pone
rápidamente al habla con un operador. Los que están en la parte inferior tendrán que esperar mucho más tiempo
o son transferidos a un centro subcontratado en el que suelen contestar máquinas automáticas" (11).
Ciudadanos de primera y de segunda. Violación algorítmica del derecho al trato equitativo y digno que
pregona tanto nuestra Constitución en su art. 42, como el 8 bis de la ley 24.240. Y sin embargo, pese a nuestro
fantástico marco normativo, el sistema diseñado por los científicos nos etiqueta por nuestra capacidad
económica, y automáticamente divide cuan deidad, a ganadores de perdedores. Y mientras tanto, el derecho
sigue mirando al siglo XX. Este sistema según relata la autora, también es utilizado por empresas de tarjeta de
crédito que realizan cálculos similares a toda velocidad en el instante en el que alguien accede a su página web.
A menudo acceden a datos sobre patrones de compra y navegación web (por medio de las llamadas
"cookies"), lo que les proporciona mucha información sobre el cliente.

© Thomson Reuters Información Legal 9


Documento

La mayoría de los sistemas de calificación también obtienen información sobre la localización del ordenador
con el que se accede a la página web. Al comprobar esta información con datos inmobiliarios se pueden sacar
conclusiones sobre el patrimonio del usuario. Una persona que usa una conexión en un barrio privado selecto, es
un cliente mucho más interesante que una persona que vive en un barrio periférico. El problema de estos
sistemas sin regulación, está dado por el bucle de retroalimentación.
Por el contrario, es altamente probable que el sistema de calificación electrónica asigne a los residentes de la
zona más dura del conurbano una calificación crediticia baja. De modo que la oferta que aparecerá en sus
teléfonos y pantallas estará dirigida a un grupo demográfico de "mayor riesgo". Esto significa que las personas
que ya tienen dificultades económicas tendrán menos crédito disponible, o pagarán tasas de interés mucho más
altas, con lo cual se profundizará la pobreza y, como suerte de profecía autocumplida, se verá confirmada la
calificación asignada por el sistema algorítmico.
Y ya no habrá un humano que pueda analizar el caso particular de esa persona que vive en el lugar, pero que
cuenta con antecedentes crediticios impecables, dado que no hay tiempo ni interés en ello. El sistema selecciona
y sus decisiones son indiscutibles.
Este mercado de la calificación electrónica es un mundo paralelo y desregulado, respecto del de la
información crediticia. Esto permite a las empresas sumergirse en conjuntos de datos sin marco legal, como el
análisis de los clics en las páginas web y las etiquetas de geolocalización, con el propósito de crear un mercado
de datos paralelo.
Como dice O'Neil "miden el éxito en incrementos de eficiencia, flujo de caja y beneficios. Salvando algunas
excepciones, conceptos como la justicia o la transparencia no entran en sus algoritmos" (12).
El sistema FICO se edificó sobre el uso de datos financieros relevantes, como el comportamiento en el
pasado a la hora de pagar facturas. Las calificaciones electrónicas con su formato desregulado nos hacen
retroceder en el tiempo.
Analizan a la persona a través de un aluvión de datos. En unos cuantos milisegundos, realizan miles de
cálculos pero tomando como patrón "personas similares al individuo analizado". Y si un número suficientes de
esas personas "similares" al individuo analizado resultan ser "vagos", o incluso peor, delincuentes, ese individuo
será tratado como si él mismo lo fuera.
El universo estadístico en el que se emplean los valores sustitutivos a menudo funciona bien. Claro, casi
siempre se cumple el dicho de "Dios los cría y ellos se juntan". Los ricos compran cruceros y BMW. Y con
demasiada frecuencia los pobres necesitan préstamos rápidos. Y dado que estos modelos estadísticos parecen
cumplirse casi siempre, aumenta la eficiencia y se multiplican los beneficios. Y los inversores ponen más dinero
en los sistemas informáticos que clasifican a miles de personas, en lo que parecen ser las categorías correctas.
Es el triunfo del big data. Es la gran derrota de la humanidad. Porque ¿qué pasa con la persona a la que los
sistemas interpretan mal y clasifican en una categoría incorrecta? Pues eso es precisamente lo que ocurre. No
hay retroalimentación alguna que corrija el sistema. Un motor que analiza estadísticas no tiene forma alguna de
aprender que acaba de enviar la llamada de un posible y valioso cliente al infierno de los sistemas de respuestas
automáticas. Y, lo que es peor, los perdedores del universo no regulado de las calificaciones electrónicas
cuentan con escasos recursos para presentar una queja, y aún menos para corregir un error en el sistema. En el
reino de las ADM, ellos son los daños colaterales. Y puesto que este tenebroso sistema está ubicado en lejanas
granjas de servidores, las víctimas casi nunca descubren el error.
IV.4. El uso de los informes de solvencia crediticia. La importancia fundamental del habeas data y el rol del
juez
Explica O'Neil que con demasiada frecuencia los propios informes de solvencia se utilizan también como
valores sustitutivos en otros campos distintos.
Y este hecho resulta dramáticamente disruptivo, por cuanto obliga a reconfigurar la importancia de
herramientas a las que la práctica cotidiana no asigna importancia trascendental, como lo es el habeas data.
Explica la autora citada que un gran número de entidades de nuestra sociedad, desde las grandes empresas
hasta el Gobierno, buscan a personas responsables en las que se pueda confiar para incorporarlas a sus equipos.
Refiere que una práctica muy habitual de las mismas, consiste actualmente en considerar la calificación
crediticia del solicitante del empleo. Los empleadores se plantean que si una persona paga sus facturas a tiempo
y evita contraer deudas, en principio se presenta como una persona responsable y que no habrá de generar
inconvenientes en el área de "recursos humanos" con el depósito de embargos y los efectos perniciosos sobre su
labor producto de los problemas personales que genera el estado de deudor.
Así es como los informes de solvencia crediticia se han expandido mucho más allá de su territorio original.
© Thomson Reuters Información Legal 10
Documento

La solvencia crediticia se ha convertido en un sustituto demasiado fácil de otras virtudes. Por ejemplo, un
servicio de búsqueda de pareja en Internet empareja a los pretendientes en virtud de sus calificaciones
crediticias. Uno de estos servicios "CreditScoreDating", proclama que las "buenas calificaciones crediticias son
sexis" (13).
En tanto, en el campo laboral un retraso en el pago de la tarjeta de crédito puede decidir nuestra suerte.
Según O'Neil, un estudio efectuado por la Sociedad de la Gestión de Recursos Humanos, una asociación del
sector, revela que casi la mitad de los empleadores de Estados Unidos hacen un escaneo de los candidatos
analizando sus informes de solvencia. Algunos, también lo hacen al tiempo de decidir un ascenso de entre el
personal estable.
Esta práctica de utilizar las calificaciones crediticias en la contratación y los ascensos crea un peligroso ciclo
de pobreza. Es que si una persona no consigue empleo porque tiene un mal historial crediticio, dicho historial no
hará más que empeorar, lo que hará que le resulte aún más difícil conseguir trabajo.
En consecuencia, una vez más se traza la línea entre pobres y ricos. Los que poseen ahorros como para
enfrentar el pago de sus obligaciones aún en momentos difíciles, gozarán de un dossier impoluto que los
posicionará siempre en un buen lugar de partida para pelear por un empleo. Por el contrario, los pobres, lo que
apenas pueden llegar a fin de mes, resultan ser mucho más vulnerables.
Por consiguiente, una excelente calificación de solvencia crediticia no es simplemente un valor sustitutivo
de responsabilidad y decisiones inteligentes, sino que también es un valor sustitutivo de riqueza.
Así, los consumidores con mayor poder adquisitivo construyen un régimen crediticio que le abre nuevas
puertas, mientras los pobres, sólo ven cerrarse una tras otro producto de la aplicación de las ADM.
En los niveles más altos de la economía, son los seres humanos los que toman las decisiones, aunque
utilicen ordenadores como herramientas útiles. Pero en los niveles medios y especialmente en los más bajos,
gran parte del trabajo está automatizado.
Y más terrible se vuelve el régimen cuando el sistema genera un dato erróneo. Pensemos en el caso de una
persona cuyo apellido es compartido por una importante cantidad de ciudadanos, y en virtud de esa similitud
resulta confundido por el sistema e ingresado en un listado de sospechosos de terrorismo. Cada vez que quiera
subirse a un avión deberá sufrir un calvario hasta ver constatado el error. Sin embargo, los viajeros ricos pueden
pagar para adquirir el status de "viajero de confianza", y así pasar sin inconvenientes por el control de
seguridad. En verdad, lo que este último ha hecho no es más que invertir dinero para protegerse de una ADM.
Y estos errores son más comunes de lo que se supone. Indica O'Neil que la Comisión Federal de Comercio
de los Estados Unidos anunció en 2013 que habían estimado que en los informes de solvencia del 5% de los
consumidores —unos diez millones de personas— había un error lo suficientemente grave como para hacer que
tengan que asumir costes más altos en los préstamos.
Pero al menos, esta calificación se encuentra regulada. Peor es cuando esas decisiones se toman sobre la
base de las calificaciones electrónicas. Incontables empresas compran información a los supermercados, los
anunciantes, los desarrolladores de aplicaciones para móviles y las empresas que gestionan redes sociales, para
reunir infinidad de datos sobre cada uno de los consumidores del país.
Pueden así conocer si un consumidor padece diabetes (producto de la información generada por farmacias, o
simples búsquedas en Internet que haya realizado el usuario), vive en un hogar donde hay un fumador, conduce
una 4x4 de alta gama, etc. También toman todo tipo de datos públicamente accesibles del Gobierno, como los
registros de las elecciones y del número de arrestos o de la venta de viviendas. Al final introducen toda esa
información en un perfil de consumidor que venden después a las demás firmas del mercado.
Los seres humanos en la economía de los datos, son el producto.
De allí que O'Neil afirme que "el mundo está dominado por sistemas automáticos que difunden por doquier
nuestros expedientes completos de errores. Las máquinas necesitan urgentemente la comprensión del contexto,
el sentido común y el sentido de la justicia que solo los seres humanos pueden aportar. No obstante, si dejamos
este asunto en manos del mercado, que premia la eficiencia, el crecimiento y el flujo de efectivo (al tiempo que
tolera un cierto grado de error), se acabará ordenando a los entrometidos seres humanos que no se acerquen a la
maquinaria". Y refiere que "Facebook, por ejemplo, ha patentado un nuevo tipo de calificación crediticia basada
en las redes sociales. El objetivo es aparentemente razonable. Pensemos en un licenciado universitario que pasa
cinco años en una misión religiosa ayudando a llevar agua potable a pueblos pobres en África. Cuando vuelve a
casa no tiene ninguna calificación crediticia y tiene problemas para conseguir un préstamo, pero sus compañeros
de clase y amigos de Facebook trabajan en la banca de inversión, han hecho doctorados o son programadores. El
análisis de grupo indicaría que este joven es una apuesta segura. El problema es que probablemente este mismo
© Thomson Reuters Información Legal 11
Documento

tipo de análisis resultará perjudicial para una limpiadora de San Luis Oriental que pueda que tenga muchos
amigos desempleados e incluso algunos en la cárcel" (14).
Esto nos permite ensayar dos conclusiones preliminares:
1. Calificaciones crediticias. Respecto de las mismas, el habeas data adquiere una relevancia trascendental
ante la utilización descripta que se hace de los informes de calificación crediticia, puesto que los mismos
desbordan su uso bancario, para ingresar en terrenos tales como el laboral, asegurativo, y hasta sentimental.
De allí que deba darse desde la Justicia un rol preponderante a estos procesos que hoy son minimizados en
el diario acontecer tribunalicio; y a su vez, realizar campañas agresivas en pos de que la ciudadanía acceda en
forma gratuita y periódica a sus dossiers para controlar la información que se brinda sobre su persona.
2. Calificaciones electrónicas. En el caso de las calificaciones electrónicas es menester el dictado de
normativa específica al estilo del Reglamento General de Protección de Datos (RGPD) personales europeo
(Reglamento UE 2016/679), que fije límites a la recopilación y uso de la información, como así también que
obligue a las empresas, programadores y/o diseñadores de ADM, a tener que abrir sus fuentes y datos con los
cuales se realizó la programación a simple requisitoria de un Juez, a fin de analizar el carácter dañino o
discriminatorio, o indigno de los mismos para actuar en consecuencia.
Sobre este último punto, vale aquí citar un hito sobre el que habremos de volver a lo largo de este trabajo,
como lo es la resolución del Parlamento Europeo, de fecha 16/02/2017, el cual establece recomendaciones
destinadas a la Comisión sobre normas de Derecho civil sobre robótica [2015/2103(INL)].
Bajo el título "Principios generales relativos al desarrollo de la robótica y la inteligencia artificial para uso
civil", en el punto 12 el informe afirma:
"12. Pone de relieve el principio de transparencia, que consiste en que siempre ha de ser posible justificar
cualquier decisión que se haya adoptado con ayuda de la inteligencia artificial y que pueda tener un impacto
significativo sobre la vida de una o varias personas; considera que siempre debe ser posible reducir los cálculos
del sistema de inteligencia artificial a una forma comprensible para los humanos; estima que los robots
avanzados deberían estar equipados con una "caja negra" que registre los datos de todas las operaciones
efectuadas por la máquina, incluidos, en su caso, los pasos lógicos que han conducido a la formulación de sus
decisiones".
Creemos que esa "caja negra" debe estar a disposición de la Justicia en todo momento a los fines de su
análisis, en búsqueda de la existencia de ADM o de la reconstrucción de algún hecho lesivo para la salud o
integridad del consumidor.
V. Publicidad en línea
El futuro de la publicidad selectiva se presenta brillante.
Como vimos, los internautas suministran grandes cantidades de datos y al hacerlo, están entregando a los
anunciantes la capacidad de descubrir hasta el mínimo detalle sobre sus vidas. Esto permite a las empresas las
acciones específicamente dirigidas a los consumidores, precisamente en el momento y en el lugar adecuado
utilizando la información que consideren más valiosa. Como sostiene O'Neil, una pizzería por ejemplo podría
saber no sólo que el cliente se encuentra en ese momento en el barrio, sino también que probablemente le
apetezca la misma pizza rellena que comió la semana pasada durante el descanso del partido de fútbol de su
equipo preferido. Hoy en día a través de nuestro actuar en Internet, permitimos que los programas nos
clasifiquen y categoricen, asignándonos puntuaciones en cientos de modelos sobre la base de los patrones y
preferencias que hemos develado.
Esto vigoriza a muchas campañas publicitarias, pero también alimenta a la publicidad depredadora, esto es,
los anuncios que identifican a las personas con grandes necesidades y les venden promesas falsas o productos a
precios excesivos. Este tipo de publicidad encuentra la desigualdad, y con la misma se hace un festín a su costa.
Así donde encontremos la ignorancia combinada con una gran necesidad es muy probable que veamos
anuncios depredadores.
Cómo explica O'Neil, si son personas preocupadas por su vida sexual, los anunciantes depredadores les
presentarán anuncios con soluciones como el Viagra o tratamientos para la erección, tal como se ve diariamente.
Si es gente con dificultades económicas, recibirá un aluvión de ofertas de créditos rápidos con alto tipo de
interés.
Este tipo de publicidad responde a la perfección al concepto de ADM, dado que se concentra en las personas
más desesperadas a una escala gigantesca. Sus operaciones provocan inmensos quebrantos dejando a sus
clientes bajo montañas de deudas. Y las víctimas no entienden cómo pudieron estafarles precisamente porque
© Thomson Reuters Información Legal 12
Documento

las campañas son opacas. Simplemente aparecen en la pantalla del ordenador o el teléfono Y una vez que hacen
clic en ellas y completan algunos datos, de inmediato reciben llamadas telefónicas publicitarias. Las víctimas
casi nunca descubren cómo las eligieron ni como su interlocutor podía saber tanto sobre sus vidas.
En tal sentido, la autora citada da cuenta del caso del Corinthian Colleges, que era un gigante del sector y
fue denunciado en el año 2013 por el fiscal general de California por mentir sobra las tasas de contratación de
los estudiantes después de licenciarse, cobrar de más a los estudiantes y utilizar sellos militares no autorizados
en la publicidad depredadora para atraer a personas vulnerables.
Según la denuncia, la institución seleccionaba a personas "aisladas" e "impacientes", con "poca autoestima",
con "pocos amigos o familiares que se preocupen por ellas", "atrapadas" en situaciones difíciles e "incapaces de
considerar y planificar bien su futuro". Ello con base en sus búsquedas.
En 2014 ante la aparición de más denuncias de abusos, la administración Obama impidió el acceso de la
empresa a la financiación federal para préstamos de estudios. En 2015 la firma vendió sus campus y se declaró
en bancarrota.
La estrategia de los anunciantes depredadores es similar, pero la ejecutan a una escala masiva, seleccionando
millones de personas cada día. La ignorancia de los clientes, evidentemente es una pieza crucial del
rompecabezas. Y la clave de los reclutadores está en localizar a las personas más vulnerables y utilizar su
información "privada" en su contra. Muchas personas revelan sus puntos débiles sin darse cuenta en sus
búsquedas en Google o al rellenar un formulario.
Esta es la razón por la que gran parte del dinero consagrado a publicidad acaba en Google y en Facebook.
Estas dos plataformas permiten a los anunciantes segmentar sus poblaciones-objetivo con minucioso detalle. Por
ejemplo, dividiendo por los códigos postales. Ello permite focalizar la campaña en el sector más rico. O en el
más pobre. Las máquinas de procesamiento de datos filtran nuestro actuar buscando hábitos, esperanzas,
temores y deseos. Con el aprendizaje automático —un campo de inteligencia artificial de rápido crecimiento—,
el ordenador se sumerge en los datos y sigue unas sencillas instrucciones básicas. El algoritmo encuentra
patrones por sí solo y después, con el paso del tiempo, los conecta con los resultados. Aprende.
Cuando pasamos del papel al correo electrónico y a las redes sociales, los ordenadores pudieron empezar a
estudiar nuestras palabras, a compararla con otras y a recopilar cierta información sobre su contexto. El
progreso ha sido rápido.
En 2011, Apple logró impresionar con su "asistente personal" con lenguaje natural Siri. En sus orígenes, a la
gente le pareció prácticamente inútil. Hoy se oye a mucha gente hablándole a su móvil en cualquier momento
pidiéndole la previsión del tiempo, el resultado de un partido de fútbol o indicaciones para llegar a algún lugar.
Como bien dice O'Neil, "En algún momento entre 2008 y 2015, más o menos, las capacidades lingüísticas de los
algoritmos avanzaron del nivel de preescolar a quinto de primaria y algunas aplicaciones incluso, a niveles
mucho más avanzados".
Estos avances en el lenguaje natural han abierto una infinidad de posibilidades para la publicidad. Los
programas ahora "saben" lo que significa una palabra, al menos como para asociarla con ciertos
comportamientos y resultados. Así, un programa de publicidad puede comenzar con los habituales datos
demográficos y geográficos, pero al cabo de varias semanas y meses, empieza a aprender los patrones de las
personas que está seleccionando y a hacer predicciones sobre su siguiente movimiento. Con el tiempo sostiene
O'Neil, acabará conociéndolas. Y si se trata de un programa depredador, evalúa sus posibilidades y
vulnerabilidades y opta por la mejor vía para explotarlas.
Decíamos que un elemento crucial de un ADM es su capacidad de producir daño en la vida de muchas
personas. Estas publicidades depredadoras, que buscan en su texto y aparición las debilidades del buscador,
constituyen un claro ejemplo de publicidad ilícita, vedada por el Código Civil y Comercial de la Nación en su
art. 1101 inc. c), al prohibir expresamente "toda publicidad que: (...) c. sea abusiva, discriminatoria o induzca al
consumidor a comportarse de forma perjudicial o peligrosa para su salud o seguridad".
No hay duda alguna de que este tipo de publicidad abusa de la situación de debilidad del consumidor, y lo
lleva mediante el conocimiento de sus puntos flacos, a actuar en forma perjudicial para su seguridad económica,
y con ello, para su salud.
Ahora, el problema que habrá de enfrentar el Poder Judicial estará dado por la posibilidad que posee la IA
aplicada a estos procesos, para confeccionar publicidades selectivas como expusimos al inicio, esto es,
particulares para cada usuario. La publicidad general que aparece en la Televisión pasará a ser un recuerdo.
Estos nos obliga a los que formamos parte de estructuras judiciales a cambiar nuestra visión del mundo, dado
que no habremos de encontrarnos en el futuro próximo con el concepto de publicidad que cargamos en nuestra

© Thomson Reuters Información Legal 13


Documento

memoria, de carácter público y masivo, sino por el contrario, publicidades individuales y particulares. De allí
que cada caso habrá de responder a un patrón distinto, aunque el resultado común pueda alcanzarse en la
afectación masiva de individuos. Pero a diferencia del estado anterior donde la publicidad ilícita era la que
activaba la actuación preventiva, será ahora la consecuencia generada por cada publicidad particularizada, la
que descubra su ilicitud una vez constatado el resultado nocivo para los consumidores, llevados por el manejo
específico de sus carencias, a tomar decisiones económicas perjudiciales para sus intereses personales y
familiares.
De allí que la publicidad predatoria deba ser uno de los focos de estudio fundamentales en este camino de
desafíos para el Derecho del Consumo.
VI. ¡Es la inteligencia artificial, estúpido! (15)
Hemos mencionado en los apartados anteriores a la inteligencia artificial (IA). Pero ¿qué es la IA? Margaret
Boden responde en forma sintética que "La Inteligencia Artificial tiene por objeto que los ordenadores hagan la
misma clase de cosas que puede hacer la mente" (16), no el hombre, sino la mente del hombre.
Como explica Desiree Jaimovich, la inteligencia artificial está conformada por algoritmos, fórmulas o
instrucciones que procesan datos para llegar a una conclusión. Es la esencia de la computación. Estos algoritmos
nutren de sistemas informáticos desde años, pero en el último tiempo fueron expandiendo su influencia y su
capacidad gracias al machine learning que, tal como implica su nombre, se refiere a la posibilidad de aprender
que tienen estos sistemas.
Los robots, algoritmos o inteligencia artificial, permiten darles sentido a enormes caudales de datos (big
data) y también optimizar procesos. Están presentes en el ámbito de la salud, la economía y la seguridad. Entran
en acción cada vez que buscamos información en la web o cuando recibimos sugerencias personalizadas. Estos
sistemas son capaces hasta de escribir poesía y producir música (17).
Boden explica que la IA tiene dos objetivos principales. Uno es tecnológico: usar los ordenadores para hacer
cosas útiles (a veces empleando métodos muy distintos a los de la mente). El otro es científico: usar conceptos y
modelos de IA que ayuden a resolver cuestiones sobre los seres humanos y demás seres vivos.
Aunque la IA precisa de máquinas físicas (por ejemplo, ordenadores), sería más acertado considerar que
utiliza lo que los especialistas en sistemas llaman máquinas virtuales. Una máquina virtual es el sistema de
procesamiento de la información que el programador concibe cuando escribe un programa y el que tiene en
mente la gente al usarlo. Boden nos brinda una muy buena analogía. Pensemos en una orquesta. Los
instrumentos tienen que funcionar. Los distintos materiales que componen esos equipos tienen que seguir las
leyes de la música para que esta suene como se espera. Pero los que asisten al concierto no se fijan tanto en eso,
sino que están interesados en la música. En lo que respecta a la IA, la situación es similar. Un procesador de
textos es algo que para el diseñador que lo concibe y para el usuario que lo utiliza, trata directamente con
palabras y párrafos. Pero, por lo general, el programa en sí mismo no contiene ninguna de esas cosas.
Esto no significa que una máquina virtual sea una ficción útil. Por el contrario, son realidades concretas.
Pueden llevar a cabo tareas tanto dentro del sistema como en el mundo exterior, si están conectadas a
dispositivos físicos como cámaras o manos robóticas.
Cuando los que se dedican a IA comprueban que un programa hace algo inesperado, rara vez contemplan
fallos en el hardware. Por lo general se interesan por las reacciones e interacciones causales en la maquinaria
virtual, el software.
Los lenguajes de programación son máquinas virtuales.
Existen en la actualidad multitud de aplicaciones de IA diseñadas para innumerables tareas específicas. Pero
los pioneros de la IA no solo aspiraban a sistemas especializados, sino que también esperaban lograr sistemas
con inteligencia general.
VII. Algoritmos discriminatorios
Desiree Jaimovich, en línea con lo explicado por O'Neil, afirma que ante el avance de la IA es menester
formularse ciertas preguntas tales como ¿cómo funcionan esas fórmulas?; ¿qué tipo de datos son seleccionados
para crearlas?; ¿los algoritmos son justos o simplemente refuerzan patrones o estigmas?
Como explicamos en los puntos anteriores, los algoritmos responden a la ideología y preconceptos de su
creado. Y además, también se equivocan.
La inteligencia artificial puede fallar. Basta con que haya algún error de programación para que surja una
conclusión errónea o para convertir al software, la estructura o plataforma en algo fácilmente vulnerable.
Ocurrió con el software de voto electrónico durante las elecciones para Jefe de Gobierno Porteño en 2015. Y
© Thomson Reuters Información Legal 14
Documento

sucede con frecuencia que expertos en informática encuentren fallas o vulnerabilidades en routers y sistemas
operativos que controlan millones y millones de datos.
Ahora bien, la autora de la nota plantea el quid del debate. Si los algoritmos están regidos por datos entonces
cabe preguntarse qué tipo de datos son los que nutren a esos sistemas. Y también, que criterio de selección y uso
se les dará a esos datos. Hay decenas de casos donde se vio que los algoritmos pueden tener visiones
extremistas, sesgadas y racistas.
Es conocido el caso de Google cuyo sistema de reconocimiento de imágenes en el año 2015, confundía fotos
de gorilas con personas. El tema enseguida se difundió en Twitter: "Mi amigo no es un gorila", escribió el
usuario y adjuntó una captura de pantalla que dejaba en evidencia el problema. La compañía salió a pedir
disculpas y prometió solucionar el error del algoritmo. Nadie preguntó cuáles fueron los parámetros que se
cargaron en dicho algoritmo, o si el mismo fue el resultado de la interacción con humanos racistas.
Es que conforme sostiene Jaimovich, Microsoft tuvo que silenciar a Tay, un bot para Twitter, cuando resultó
ser que en menos de 24 horas de entrar en acción pasó de ser divertida y amable a agredir a otros usuarios en esa
plataforma y a hacer apología nazi. Aparentemente el contacto con los trolls de esa plataforma generó esa
mutación en el sistema, que se nutría de la interacción con los usuarios.
Y es más, en línea con lo tratado en el punto anterior, la autora afirma que según una investigación de la
Universidad Carnegie Mellon realizada en 2015, las mujeres tenían menos chance que los hombres de ver
anuncios sobre empleos bien remunerados en la web. Esto constituye publicidad discriminatoria. Otro punto por
trabajar en nuestro campo.
Por ello, resulta fundamental (y debe ser una política de Estado) trabajar en la formación ética de los
programadores y de las máquinas una vez que comiencen a interactuar con su entorno. Algo de eso veremos en
los próximos puntos.
VIII. Vehículos autónomos. Uno de los primeros desafíos masivos
Uno de los temas que más impacto ha generado en la ciudadanía, tal vez por su cercanía y fácil
comprensión, es el de los denominados "vehículos autónomos". Un vehículo autónomo es un tipo de automóvil
(también hay un tren en proyecto), que cuenta con sensores, procesadores, software y equipamiento necesarios
para conducirse por sí mismo. Es decir, es un elemento usual antes en manos del conductor, que persigue
independizarse del mismo mediante la inserción de Inteligencia Artificial.
La idea antes futurista parece ganar cuerpo en nuestro mundo actual.
Son muchas las empresas, tanto las automotrices tradicionales como las desarrolladoras de Inteligencia
Artificial, que se encuentran en la actualidad avanzando en el testeo de estos rodados, ya no solo en espacios
cerrados sino también en la vía pública.
General Motors se encuentra trabajando en su modelo Cruise AV, un automóvil sin volante ni pedales y con
conducción autónoma. Sin embargo, pese a no tener volante, durante las pruebas de conducción siempre va un
operador, por si algo saliera mal. La empresa ha realizado pruebas en California y ha anunciado que empezará a
fabricar este automóvil para, en un futuro, comenzar a comercializarlo.
Ford por el momento está realizando experimentos en su Ford Fusion Hybrid presentado en 2016.
La empresa matriz de Google, Alphabet, lleva años desarrollando un sistema de conducción autónoma.
Hasta enero de 2018, sus vehículos autónomos se habían desplazado ocho millones de kilómetros. Pero no todo
lo recorrieron en las calles de Estados Unidos, pues también lo han hecho en vías virtuales mediante un sistema
de simulación.
Waymo ha empezado a realizar pruebas de conducción automática en Phoenix, desde el año 2017. Con estas
pruebas, Alphabet desea que la empresa siga mejorando los sistemas autónomos adaptándolos a todas las
condiciones urbanas y climáticas.
Tesla, bajo la dirección del controvertido Elon Musk, también está explorando la conducción automática con
su sistema Autopilot. El propio Musk aseguró que en 3 o 6 meses este software se actualizará para recibir una
conducción automática, sin tener que cambiar partes del auto. Para ello, buscará que sus autos recorran Estados
Unidos.
Hyundai por su parte, con su modelo Hyundai Nexo ha recorrido unos 200 km a una velocidad media de 90
km/h. Aunque el automóvil se conducía sólo, dentro del vehículo había una persona por si ocurría algún
incidente.
Esta experiencia ha hecho que el fabricante sea el primero en probar este nivel de conducción autónoma en

© Thomson Reuters Información Legal 15


Documento

largas distancias. Este viaje se ha realizado con cinco modelos de autos: tres Hyundai Nexo y dos Genesis G80.
Su idea es que sus primeros vehículos lleguen al mercado en el año 2021.
En el CES de 2018, Lyft realizó una demostración de su vehículo autónomo desarrollado por Aptiv. Utilizó
un BMW 540i equipado con 10 radares y 9 sensores LIDAR demostrando las características de su automóvil.
Su proyecto es crear una flota de taxis autónomos a corto plazo.
BMW trabaja en el asistente BMW i Vision Dynamics, que se posicionará entre los ya existentes BMW i3 y
BMW i8.
Yandex, la firma rusa, también está interesada en desarrollar taxis autónomos. Si bien no están fabricando
sus propios vehículos, vienen trabajando con una flota de Toyota Prius. La firma iniciará sus pruebas en
condiciones extremas bajo tormentas de nieve y poca visibilidad, lo que será una verdadera prueba para el auto.
Después de ello, tiene pensado presentar los resultados al gobierno para impulsar la regulación de automóviles
autónomos en Rusia y así iniciar con el servicio.
Intel fue otra de las firmas que presentó su primer automóvil autónomo beta en el CES 2018. Intel quiere
hacer una flota de 100 vehículos en Estados Unidos, Europa e Israel para probar su conducción autónoma (18).
Pero quien más había avanzado era Uber. Sin embargo, el 18/03/2018 mucho cambió. En la noche de ese
día, una mujer cruzaba la calle y fue atropellada por un coche autónomo de dicha firma en Arizona, Estados
Unidos. Ello modificó (por suerte), la fecha de lanzamiento de su servicio de coches autónomos, el cual estaba
proyectado para finales del presente año como reveló Dara Khosrowshahi, nuevo director ejecutivo de Uber, en
The New Yorker, mucho antes de lo que nadie imaginaba. .
Esto demuestra que, más allá de tragedias como la citada, el futuro ya es una realidad, aunque su inserción
resultará progresiva.
VIII.1. Los niveles de automatización
Por ello se habla hoy de la existencia de varios niveles de conducción autónoma. Distintos organismos han
realizado una clasificación de los mismos, siendo la NHTSA, la agencia federal que se encarga de velar por la
seguridad de las carreteras y de los coches en EE.UU., la que en 2013 elaboró el primer cuadro.
La NHTSA creó una escala con cinco niveles de automatización, de 0 a 4, focalizándose principalmente en
las capacidades del vehículo de conducirse por sí mismo. El carácter de esta escala de clasificación era el de
servir de guía para que la Administración legislara la correspondiente normativa.
El nivel 0 se corresponde con ninguna automatización de la conducción (o sea, un coche convencional), y el
nivel 4 se corresponde con una automatización completa de la conducción, sin responsabilidad alguna del
conductor, y sin que sea necesario siquiera que haya un conductor en el vehículo.
También en 2013 se realizó una clasificación en Alemania, por parte del BASt, el Instituto Federal de
Investigación de Carreteras. En esta también se recogían cinco niveles. Sin embargo no se emplean números
para los diferentes niveles, como en la clasificación de la NHTSA.
En la clasificación BASt los cinco niveles de conducción automatizada son: solo conductor, asistida,
automatización parcial, automatización elevada y automatización completa.
En 2014, la Sociedad de ingenieros automotrices (SAE conforme sus siglas en inglés) nacida en 1905 en los
Estados Unidos, realizó su propia clasificación, diferente a la de la NHTSA, y también diferente a la de la BASt,
realizadas ambas el año anterior.
En este caso su escala tiene seis niveles de automatización, de 0 a 5, y se focaliza más en el nivel de
atención e intervención del humano en la conducción.
El hecho de coexistir varias escalas de clasificación de la conducción autónoma, generó confusión acerca de
qué nivel de conducción autónoma tenía tal o cual modelo de coche o prototipo.
Sin embargo, en la actualidad la mayoría de las firmas están adoptando el estándar creado por la SAE y de
hecho la NHTSA adoptó dicho sistema en septiembre de 2016, abandonando el propio. Los niveles aparecen
descriptos en el estándar SAE J3016, publicado por primera vez en enero de 2014 y reformado en 2016. Este
documento es solo una guía de buenas prácticas, con recomendaciones, pero no es una norma de obligado
cumplimiento. Será cada país el que tenga que legislar al respecto.
El estándar recoge que hay tres actores primarios en un vehículo autónomo: el conductor (humano), el
sistema de conducción autónoma (o automatizada) y el resto del coche (con sus sistemas convencionales).
Los diferentes niveles de las tareas de conducción dinámica (así es como se refiere el estándar SAE a la
conducción, DDT por sus siglas en inglés) se establecen en relación con el papel que tiene cada uno de esos tres
© Thomson Reuters Información Legal 16
Documento

actores primarios durante las tareas de la conducción.


El estándar SAE J 3016, de "términos relacionados con los sistemas de automatización de conducción para
vehículos de motor en carretera" establece seis niveles de conducción autónoma o automatización: de 0
(ninguna automatización) a 5 (vehículo completamente autónomo). Para cada nivel se indica la capacidad
mínima que debe tener el vehículo con respecto a la automatización de funciones.
Nivel 0: No hay automatización de la conducción.
Las tareas de conducción dinámica son realizadas completamente por el conductor (o sea, por el humano,
como siempre).
Nivel 1: Asistencia al conductor.
El vehículo cuenta con algún sistema de automatización de la conducción, ya sea para el control del
movimiento longitudinal, ya sea para el control del movimiento lateral, pero no ambas cosas a la vez. El
conductor (humano) sigue realizando el resto de tareas de la conducción.
El sistema no cuenta con detección y respuesta ante objetos y eventualidades de manera completa, y esta
tarea recae en el conductor (por ejemplo puede reconocer vehículos, pero no un animal que cruza la carretera).
El funcionamiento del sistema está limitado a ciertas condiciones.
El conductor sigue siendo conductor y debe estar atento a todo lo que sucede.
Nivel 2: Automatización parcial de la conducción.
El vehículo cuenta con sistemas de automatización de la conducción tanto para el control del movimiento
longitudinal, como para el control del movimiento lateral, ambos a la vez.
El conductor (humano) ya no tiene que realizar tareas relativas al movimiento.
El sistema no cuenta con detección y respuesta ante objetos y eventualidades de manera completa, y de
nuevo esta tarea recae en el conductor.
El funcionamiento del sistema sigue limitado a ciertas condiciones.
El conductor sigue siendo conductor y debe estar atento a todo lo que sucede.
Nivel 3: Automatización condicionada de la conducción.
El vehículo cuenta con sistemas de automatización de la conducción tanto para el control del movimiento
longitudinal, como para el control del movimiento lateral, ambos a la vez.
El sistema cuenta con detección y respuesta ante objetos y eventualidades de manera completa.
En este nivel se habla de usuario preparado para intervenir si el sistema lo solicita o se produce un fallo o
pérdida de las condiciones de funcionamiento, pasando a ser en ese momento conductor.
El funcionamiento del sistema sigue limitado a ciertas condiciones.
El conductor a veces lo es y a veces no.
Para un coche con sistema de conducción automatizada de nivel 3, el estándar SAE J3016 establece que si
se produjese un fallo del sistema, este debe informar al usuario de respaldo con tiempo suficiente para que
pueda reaccionar adecuadamente e intervenir, mediante un mensaje o alerta de petición de intervención en la
conducción.
Nivel 4: Automatización elevada de la conducción.
El vehículo cuenta con sistemas de automatización de la conducción tanto para el control del movimiento
longitudinal, como para el control del movimiento lateral, ambos a la vez.
El sistema cuenta con detección y respuesta ante objetos y eventualidades de manera completa.
Ya no es necesario un usuario preparado para intervenir si el sistema lo solicita o se produce un fallo. El
propio sistema de automatización de la conducción cuenta con un sistema de respaldo para actuar en caso de
fallo del sistema principal y poder conducir hasta una situación de riesgo mínimo.
Sin embargo el funcionamiento del sistema sigue limitado a ciertas condiciones y por tanto el vehículo
puede encontrarse en situaciones en las que no pueda seguir conduciendo.
Desaparece la figura del conductor.
Nivel 5: Automatización completa de la conducción.
El vehículo cuenta con sistemas de automatización de la conducción tanto para el control del movimiento

© Thomson Reuters Información Legal 17


Documento

longitudinal, como para el control del movimiento lateral, ambos a la vez.


El sistema cuenta con detección y respuesta ante objetos y eventualidades de manera completa.
Ya no es necesario un usuario preparado para intervenir si el sistema lo solicita o se produce un fallo. El
propio sistema de automatización de la conducción cuenta con un sistema de respaldo para actuar en caso de
fallo del sistema principal y poder conducir hasta una situación de riesgo mínimo.
No hay condiciones específicas limitantes para el funcionamiento del sistema, y por tanto el vehículo podría
seguir conduciendo en todo momento o circunstancia.
No es necesario el conductor.
Tanto para el nivel 4 como para el nivel 5, puesto que no es necesario que haya un conductor, ni siquiera
tampoco un usuario de respaldo, se podría prescindir de los elementos de control y manejo del vehículo: es
decir, tendríamos vehículos sin volante ni pedales.
Para todos los niveles de automatización, incluso en los más altos, el estándar SAE J3016 recoge la
posibilidad de que siga habiendo un conductor humano, si así lo desea el fabricante, y que este pueda activar o
desactivar el sistema de conducción automatizada a voluntad, aunque técnicamente no sea necesario en ningún
momento.
— Ejemplos de coches según su nivel de automatización
De Nivel 0
Cualquier coche convencional, económico o antiguo, que no cuenta con sistemas de automatización de la
conducción, estaría en este nivel. En otras palabras, son los coches que tienen que conducirse como toda la vida
se ha hecho.
De Nivel 1
Todos los coches con un sistema de control de velocidad de crucero adaptativo entran en este nivel. Nos
referimos al sistema más avanzado que además de acelerar, es también capaz de frenar y mantener la distancia
de seguridad. Hay muchos, desde coches pequeños hasta más grandes, de múltiples fabricantes y de todos los
precios.
Los coches con sistema de aparcamiento asistido que solo actúan sobre la dirección, pero no sobre el
acelerador y el freno, también entrarían dentro del nivel 1.
De Nivel 2
En este nivel es un poco más difícil encontrar coches que cuenten con un sistema adecuado, aunque
estaríamos hablando de un piloto automático temporal para autopista. Podemos citar por ejemplo: el
Mercedes-Benz Clase E con Drive Pilot, el nuevo Nissan Qashqai con ProPilot, o el nuevo Volvo XC60 con
Pilot Assist, entre algún otro.
En principio también se podría considerar como de nivel 2 los vehículos que cuentan con un sistema de
asistente para atascos de tráfico, como por ejemplo los nuevos SEAT Ibiza 2017 y SEAT León 2017, el nuevo
Volkswagen Golf, o el nuevo Audi A3, entre otros, pero teniendo presente que las condiciones de
funcionamiento son bastante más limitadas (en estos casos en lo que respecta a la velocidad máxima hasta la
que funciona el sistema, tan solo 60 o 65 km/h).
Los coches con sistema de aparcamiento asistido que actúa sobre la dirección, y también sobre el acelerador
y el freno, se consideran de nivel 2.
De Nivel 3
En principio se podría considerar que un Tesla Model S con sistema AutoPilot 2.0 es nivel 3, aunque no
cumpliría de manera estricta con el estándar SAE J3016, habiendo cierta discusión al respecto. El fabricante
norteamericano promete seguir desarrollando el sistema poco a poco y enviar actualizaciones del software vía
OTA, de manera que vaya mejorando progresivamente, e incluso podría subir a Nivel 4, o nivel 5 dentro de
unos años.
De Nivel 4
Aquí se ubica al coche autónomo de Google con conductor. No hay coches a la venta, y solo diferentes
prototipos de múltiples fabricantes. Por ahora todos esos prototipos siguen teniendo volante y pedales de
acelerador y freno, un conductor humano por si acaso y un botón del pánico para que se pueda desactivar el
sistema de conducción automatizada y tomar el control, si fallan las condiciones y el coche no puede seguir
conduciendo por sí mismo.

© Thomson Reuters Información Legal 18


Documento

Waymo, compañía que se informa que integra el entramado de empresas de Alphabet, la multinacional cuya
más importante subsidiaria es Google, ya está probando desde mediados del pasado mes de noviembre de 2017
coches autónomos de nivel 4 sin conductor de seguridad en las calles de Phoenix (Arizona), en un entorno con
tráfico real y bajo condiciones de imprevisibilidad reales.
Los coches de nivel 4 ya están circulando, pero en pruebas. El gobierno de los estados de Nevada y Arizona
aprobó hace ya varios años una ley que permite la circulación de vehículos autónomos, bajo unas condiciones
de seguridad muy estrictas. Tanto es así que a mediados de 2012, un año después de la aprobación de estas
leyes, el estado de Nevada expidió la licencia al primer coche autónomo con permiso para circular: un Toyota
Prius equipado con la tecnología de conducción autónoma de Google.
A partir de ese momento tanto Waymo como otras empresas, entre las que podemos destacar Uber y General
Motors, han comenzado a realizar pruebas de conducción autónoma en ciudades como Las Vegas o Phoenix,
ambas ciudades pertenecientes a los dos estados que he mencionado en el párrafo anterior.
De Nivel 5
Ningún vehículo alcanza hoy en día este nivel si nos ceñimos estrictamente a las definiciones del estándar
SAE J3016. Quizás se podría considerar el prototipo de coche autónomo de Google sin conductor. Es un coche
pequeñito que no tiene volante ni pedales de acelerador y freno, y que es directamente un robotaxi que
transporta solo si no hay ninguna condición limitante del funcionamiento del vehículo.
Esto de eliminar totalmente las condiciones limitantes, para algunos fabricantes podría implicar que serían
necesarios sistemas complementarios de localización y balizamiento en la infraestructura, como por ejemplo ha
propuesto Volvo, o como por ejemplo hacen los aviones para volar con el piloto automático, y que serían en el
fondo sistemas inalámbricos de comunicación vehículo a vehículo (V2V) y vehículo a infraestructura (V2I). Por
ahora solo hay prototipos en fase de pruebas.
Durante varios años vamos a tener vehículos con diferentes niveles de conducción automatizada, por lo que
el deber de advertencia (no solo de información), habrá de ocupar un lugar preponderante a fin de que el
conductor conozca en detalle cómo funciona el sistema y qué limitaciones tiene.
Pero atento los niveles de tecnificación antes indicado, el deber de advertencia, seguridad y
acompañamiento al usuario, es una obligación actual y permanente por parte de las automotrices. Es que el
peligro con los niveles bajos de automatización de la conducción, es que el conductor se confíe y se distraiga,
creyendo que el coche es capaz de hacer más cosas de las que realmente puede.
Por ello es fundamental que el usuario conozca expresamente:
— Qué funciones incluye el sistema que equipa tu coche.
— Qué es capaz de hacer por sí mismo, y qué no es capaz de hacer.
— Cómo se enciende el sistema y tener bien claro cuando se conduce si está encendido o no.
— Si se activan las diferentes funciones por separado, o si hay un menú de configuración que afecte a su
funcionamiento.
— Qué cosas es capaz de detectar y qué cosas no (vehículos grandes, vehículos pequeños, bicicletas,
peatones, animales, objetos de cualquier tipo que puedan estar tirados en la calzada...). Por ejemplo no todos los
sistemas de frenada autónoma de emergencia son capaces de detectar lo mismo.
— Qué condiciones de funcionamiento se requieren y qué limitaciones tiene el sistema o los sensores.
— Si tú como conductor tienes que seguir en el puesto de conducción atento a todo lo que pueda suceder y
preparado para intervenir, o no (19).
Vale citar que conforme las previsiones conservadoras de BMW, se calcula que el nivel 3 será muy habitual
en nuestras calles en 2021 y que en 2020 se habrán generalizado las pruebas de prototipos de nivel 5. Por su
parte Volkswagen, durante la presentación en el Salón de Ginebra de su I.D. VIZZION, afirmó que confía en
poder lanzar la versión con nivel SAE 5 de su berlina en 2025 (20).
VIII.2. ¿Por qué los coches autónomos?
Como siempre ocurre, comenzamos este apartado dando por sentado lo que debería haber sido nuestra
primera pregunta. ¿Quién y por qué dijo que debemos reemplazar los autos tripulados por humanos por
vehículos autodirigidos?
Al intercambiar ideas con los científicos, la respuesta es siempre la misma: —"los coches autónomos
salvarán vidas gracias a que habrá menos heridos y menos muertes por accidentes de tráfico que con coches

© Thomson Reuters Información Legal 19


Documento

conducidos por personas". Sin embargo, dicha proyección sólo podrá ser pasible de análisis comparativo una
vez que se cuente con dicho vehículo en funcionamiento y en forma masiva, por lo cual hoy estamos aceptando
una premisa que puede resultar en el futuro absolutamente falsa. El accidente de Uber puede ser una muestra,
aun cuando se lo atribuya a una falla de desarrollo (21).
Un muy interesante artículo de Peter Hancock, Profesor de Psicología, Ingeniería Civil y Ambiental, e
Ingeniería Industrial y Sistemas de Gestión de la Universidad de Florida Central, da cuenta de lo endeble que
resultan muchas de las verdades sobre el tema que se nos presentan como debates irreductibles (22).
El autor afirma que "[l]as estadísticas sobre las causas de los accidentes de tráfico lo dejan claro: más del
90% de los accidentes de tráfico en EE.UU. están relacionados con algún tipo de error al volante. Si
consiguiéramos eliminar este tipo de errores, en solamente dos años salvaríamos tantas vidas como el número
total de combatientes estadounidenses que cayeron durante la Guerra de Vietnam.
"Para mí, que me dedico a la investigación sobre factores humanos, esta no es información suficiente para
que podamos evaluar si la automatización puede ser mejor que las personas a la hora de evitar accidentes de
tráfico. Los índices de accidentes solo se pueden determinar si también sabemos cuántas 'no colisiones' se
producen. En el caso de los conductores, ¿la probabilidad de que una colisión sea un accidente es de una entre
mil millones o de una entre un billón? Es extremadamente complicado determinar el porcentaje de cosas que no
ocurren. (...) Para determinar si los vehículos autónomos son más seguros que los conductores humanos, los
investigadores deberán establecer una tasa de no colisiones tanto para los humanos como para los emergentes
vehículos sin conductor".
Un dato que no es menor, está dado porque las estadísticas sobre accidentes de tráfico con conductores
humanos se recopilan sobre la base de todo tipo de situaciones de conducción en todo tipo de carreteras, entre
las que se incluyen gente conduciendo cuando llueve a cántaros, carreteras de tierra o pendientes con nieve. En
tanto, la mayoría de la información sobre la seguridad de los coches autónomos viene de la zona oeste de
Estados Unidos donde suele haber buen tiempo. Muchos datos se han recogido en autopistas de varios carriles
de una sola dirección, donde la principal tarea de los coches es permanecer en el carril pertinente y no acercarse
demasiado al vehículo que va delante. Estos son escenarios ideales donde la posibilidad de colisiones es muy
baja, aún para los humanos.
Por ello, deberíamos en primer lugar sopesar y debatir las ventajas y desventajas de contar con vehículos
autotripulados, y si realmente tiene razón de ser en un sistema en donde las ciudades han marcado un rumbo
contrario al auto individual, en pos de la expansión del transporte público. Una vez más la política estatal parece
ir a contramano de la que impone la industria, y sin embargo, no se discute sobre ello. ¿Más autos, para más
gente (dado que ya no será necesario saber conducir), cuando la tendencia es a su reducción? Creo que una vez
más, somos rehenes de la dictadura de los científicos quienes han decidido que este habrá de ser el sistema de
transporte futuro, sin aceptar debates o cuestionamientos. Aun cuando no sepamos, si la premisa (la reducción
del número de accidentes), habrá de ser cierta o no. O si el espacio urbano lo soporta. Hay algo que carece de
lógica. Tal vez necesitemos de un ADM.
De allí que entiendo que este debe ser el primer debate que el mundo debería darse antes de continuar con
esta carrera impuesta por la industria.
VIII.3. Los nuevos problemas surgidos a partir de la inserción de los rodados autónomos. La programación
y las decisiones morales
Ahora bien, mientras este debate no se produzca, y atento que las empresas han tomado la decisión de
producir este salto en los distintos puntos del globo, sin que los gobiernos se opongan (por el contrario, poco a
poco, han tolerado y/o acompañado dicho avance sin efectuar los análisis que todo estadista debería realizar en
forma previa respecto de su impacto y sus eventuales beneficios), debemos avanzar en sus problemáticas.
Es que, sin prueba empírica, los cantos de sirena convencen a los huéspedes de turno de los distintos
gobiernos del fragmentado cuadro geopolítico con el slogan del "desarrollo tecnológico". Es claro, del otro lado
el sector empresarial resulta constante y carente de rostro.
Pues bien, aceptemos las reglas de juego y demos por hecho que en poco más de un lustro seremos
conducidos por nuestro auto mientras dormimos o leemos. Bien. Confiando en los argumentos industriales,
observaremos cómo los accidentes se reducen. Y hago hincapié en este término: "reducir". Esto es muy
importante porque la industria no promete eliminarlos, sino reducirlos. Como sostiene Coca Vila, no es
descartable que un software incurra en un error o sea hackeado, ni que un coche autónomo haya sido
erróneamente programado o sufra un fallo mecánico. Tampoco cabe excluir que circunstancias externas
imprevisibles e incontrolables (peatones negligentes, fenómenos meteorológicos extraordinarios, animales

© Thomson Reuters Información Legal 20


Documento

salvajes, etc.) sometan al coche autopiloteado a un riesgo de colisión. Por razones estrictamente físicas, ningún
coche autopiloteado, por sofisticados que sean los sensores y el software de control, quedará completamente
exento del riesgo de provocar o verse involucrado en un accidente (23).
En consecuencia, como acontece en todo proceso industrial, habrá de existir un porcentaje de fallas,
cualquiera sea el motivo, generadoras de daños.
Cualquier humano en su sano juicio me dirá que ello es de por sí un logro inmenso. Y coincidiría con él,
salvo que para alcanzar dicho resultado es menester enfrentar un problema que hasta hoy no teníamos, y que
consiste en cómo tratar y resolver algorítmicamente esas colisiones.
Para ser más claro. En la actualidad, las reacciones humanas al momento del impacto son actos reflejos
irreflexivos. Segundos en los que la mente actúa ante un escenario nunca previsto. Aquí radica entonces la
diferencia con la Inteligencia Artificial (IA). Y aquí el debate central.
Es que la IA sí puede ser programada en forma previa, a fin de determinar el curso de acción a seguir en
caso de no poder evitar una colisión. Es decir, podemos convertir esa decisión humana intempestiva, en una
decisión previamente programada.
Ello nos conduce entonces al antiguo "problema del tren" o "del carrito". El mismo es un experimento de
pensamiento en ética. La forma general del problema es esta: Ve un carro fuera de control moviéndose hacia
cinco personas atadas (o incapacitadas) que yacen en las vías. Estás parado al lado de una palanca que controla
un interruptor. Si tira de la palanca, el carro se redirigirá a una pista lateral y las cinco personas en la pista
principal se salvarán. Sin embargo, hay una sola persona acostada en la vía lateral. Tienes dos opciones:
1. No haga nada y permita que el trole mate a las cinco personas en la pista principal.
2. Tire de la palanca, desviando el carro hacia la vía lateral donde matará a una persona.
Y la pregunta: ¿Cuál es la opción más ética? La forma moderna del problema fue introducida por Philippa
Foot en 1967. Sin embargo, una versión anterior, en la que la persona a sacrificar en la pista era el hijo del
interruptor, era parte de un cuestionario moral dado a estudiantes universitarios en la Universidad de Wisconsin
en 1905, y el erudito alemán Hans Welzel discutió un problema similar en 1951. A partir de 2001, el problema
del carro y sus variantes se han utilizado ampliamente en la investigación empírica sobre psicología moral, y
surge precisamente en la discusión de la ética del diseño de vehículos autónomos.
Es que el caso del carrito era un modelo de pensamiento de muy difícil factura en la realidad ¿Cuántas veces
nos íbamos a encontrar en la situación descripta? Por el contrario, con el advenimiento de la IA en los
automotores autotripulados, ese ejercicio se vuelve realidad palpable. Es que la decisión ya no estará en poder
del humano que será conducido en un vehículo sin volante, sino por una IA.
Patrick Lin en un artículo muy interesante (24), nos propone enfrentar este nuevo escenario. Así, afirma que
es claro que el experimento mental es un dilema moral, porque no hay un camino claramente correcto a seguir.
En general, es mejor dañar a menos personas que más, hacer que una persona muera en lugar de cinco. Pero el
fabricante de automóviles crea responsabilidad por sí mismo al seguir esa regla, por sensato que sea. Programar
al automóvil para tomar esa decisión, resulta en la muerte de esa persona. Y este es un acto de matar. Si no
hubiera hecho nada, las cinco personas habrían muerto, pero ¿las habrían matado?, o simplemente era la
consecuencia lógica del acto precedente,
Ante dicha aseveración se responde que en ese caso, el fabricante de automóviles aún podría ser culpado por
ignorar la difícil situación de esas cinco personas, cuando tenía el poder de salvarlas.
Ante ello, se ha propuesto que sea el usuario el que seleccione la "configuración de ética" del automóvil. De
esta manera, el consumidor podría configurar el automóvil comprado, eligiendo entre valorar celosamente su
vida por sobre todos los demás; u optar porque el automóvil valore todas las vidas de la misma manera y
minimice el daño general, aún a riesgo de perder su vida; o seleccionar la opción de minimizar la
responsabilidad legal y los costos para ella misma; u otras configuraciones posibles.
Claro, con un dial de ética ajustable y establecido por el cliente, el fabricante no podría ser culpado por
llamadas de juicio crítico, especialmente en escenarios sin salida.
Es por demás acogedor el planteo de Link. El mismo revela que en una encuesta sobre la posibilidad de que
el usuario ajuste la ética del rodado, el 44 % de los encuestados prefirió tener un entorno de ética personalizado,
mientras que solo el 12 % pensó que el fabricante debería predeterminar el estándar ético.
Ahora bien, de ser esto así, el debate en materia de consumo se centra en establecer si ello libera de
responsabilidad al empresario. Si las industrias nos impusieran la selección a los débiles jurídicos ¿quedarían
por ello liberadas de las consecuencias? Es que pese a que ha habido una colisión que pondría en evidencia una
© Thomson Reuters Información Legal 21
Documento

falla por parte de alguno de los rodados implicados (en caso de ser varios), ha sido la decisión de sus titulares la
que ha producido la consecuencia dañosa respecto de terceros al tiempo de programar su ajuste moral. Será fácil
entonces, cargar la responsabilidad sobre el conductor ileso que programó el rodado para salvar su vida en
cualquier situación.
Sin embargo Link sostiene que aún en esa situación el fabricante del automóvil sería responsable. Para ello
propone hacer elecciones éticas escandalosas:
"Imagínese que los fabricantes crearon configuraciones de preferencia que nos permiten salvar automóviles
híbridos antes que camiones que consumen mucha gasolina; automóviles asegurados en lugar de los que no
tienen seguro; o motociclistas con casco en lugar de los que no lo están. O entornos de ética más preocupantes
que nos permiten salvar a los niños sobre los ancianos, a los hombres sobre las mujeres, a los ricos sobre los
pobres, a las personas heterosexuales sobre los homosexuales, o a los cristianos sobre los musulmanes.
"En un accidente que requiere elegir una víctima por encima de otra, el fabricante aún podría ser culpado
por darle al usuario alguna opción, es decir, la opción de discriminar contra una clase particular de conductores
o personas. Guardar, proteger o valorar un tipo de cosa de manera efectiva significa elegir otro tipo para apuntar
en un escenario de bloqueo inevitable".
No es un tema menor el que tratamos. Por ello nos resultan de sumo interés los avances realizados en torno a
este tema en el campo del Derecho Penal en el viejo continente.
Coca Vila afirma que asumido que sea que el problema descripto no puede sumirse en un espacio libre de
derecho, ni que quepa dejar plenamente en manos de cada compañía automovilística o en los particulares la
libre configuración de los algoritmos de un coche autopilotado, en su criterio le compete necesariamente al
ordenamiento jurídico el ofrecer pautas claras y precisas de resolución objetiva de los dilemas también cuando
están en juego vidas humanas. Sostiene que la pregunta es cómo han de programarse los algoritmos de
necesidad de los automóviles autopilotados.
El autor refiere que tres han sido hasta el momento las respuestas ofrecidas en la doctrina filosófica y
jurídico-penal a esta última cuestión.
VIII.3.a. Egoísmo ético
En primer lugar, en consonancia con los postulados del egoísmo ético, hay quien ha abogado por configurar
siempre los algoritmos de necesidad en favor de los intereses particulares del ocupante del vehículo
autopilotado.
La idea de la autoconservación, amén de ser neutralmente ética, tendría un amplio respaldo social.
Pese a que el desarrollo y la comercialización de los coches autopilotados reducirían de forma radical la tasa
global de accidentes, el saber que el coche autónomo va a maximizar la utilidad social en caso de accidente, ello
incluso a costa de sus ocupantes, generaría un fuerte desincentivo para la adquisición de un coche de tales
características. Si resulta que los particulares no quieren comprar vehículos que no les protejan ante cualquier
eventualidad, el desarrollo de los coches autónomos deja de ser económicamente viable y, con ello, se esfuma
toda posibilidad de aminorar drásticamente el número de lesionados y muertos en las carreteras. Así pues, como
mínimo en situaciones de conflicto entre vidas humanas, esta postura entiende que sería legítimo programar el
algoritmo para que el coche evitara en todo caso la muerte de su ocupante.
"Aunque no es posible desarrollar en este lugar los muchos argumentos que desde antaño vienen
formulándose en contra del 'egoísmo ético', sí cabe rechazar la posibilidad de elevar esta teoría a la categoría de
patrón inspirador de los algoritmos de necesidad. Aunque fuera técnicamente posible que el titular del
automóvil pudiera programar a su antojo el software del coche ante tales eventualidades, la pretensión de
regular los conflictos en los que se ven inmersa una pluralidad de sujetos a partir del criterio único de la
maximización del interés individual de cada uno de ellos resulta normativamente inasumible. No es ya sólo que
ello generaría importantes contradicciones lógicas, empíricas y normativas al tratar de generalizar —en vano—
el patrón de conducta entre todos los sujetos egoístas implicados en el conflicto, sino que un ordenamiento
jurídico liberal, asentado por lo tanto sobre el principio de autonomía personal y las nociones de derecho y
deber, no puede advertir en el mero interés de un concreto ciudadano un motivo suficiente para justificar el
menoscabo de un derecho ajeno. Tampoco lo es, en contra de lo que han sostenido recientemente Hörnle y
Wohlers, el que estudios demoscópicos apunten a que la mayoría de usuarios espera que el coche autopilotado
priorice la vida de su ocupante a costa de la de terceros. Ello en nada afecta al haz de derechos de quien la
mayoría pretende sacrificar. Por último, adviértase que el rechazo de la tesis del egoísmo ético tampoco
constituye un obstáculo insalvable para el desarrollo de automóviles autopilotados. El dilema arriba referido se
puede y debe resolver a través de una decisión legislativa que condicione el sentido de los algoritmos de

© Thomson Reuters Información Legal 22


Documento

necesidad" (25).
VIII.3.b. Principio de mal menor o utilitarista
La segunda opción para programar los algoritmos de necesidad, se responde aludiendo al principio de
minimización social del daño o del mal menor.
Ante una situación de peligro, el coche debería comportarse siempre de modo tal que minimice el
menoscabo total de los intereses o bienes en conflicto, con independencia de quién sea su titular. Por un lado,
desde una perspectiva normativa, se alega que la resolución de los dilemas jurídicos en los que puede verse
sumido un coche autónomo habría de obedecer necesariamente al mismo principio que rige los conflictos
protagonizados por seres humanos, esto es, el principio del mal menor (o del interés preponderante). Este,
además, contaría con un amplio grado de aceptación psicológico-social como criterio de resolución de los
conflictos. Por otro lado, desde una perspectiva pragmática, los defensores de la aproximación utilitarista
afirman que los coches autónomos, al igual que cualquier ordenador altamente sofisticado, estarían en
disposición de llevar a cabo procesos de agregación de utilidad de manera mucho más rápida y fiable que un ser
humano.
La oposición a esta postura se funda en que el ordenamiento jurídico reconoce a sus ciudadanos auténticos
derechos subjetivos que no cabe que sean valorados en forma disímil por los algoritmos de los coches
autónomos a partir del principio del mal menor, máximo cuando ya hemos visto los riesgos de los ADM.
Coca Vila sostiene que la tesis del mal menor, como patrón de configuración de los algoritmos de necesidad,
no resulta normativamente asumible, pues yerra a la hora de definir la misión última del ordenamiento jurídico y
el fundamento del estado de necesidad. No es posible hacer distinciones entre los individuos. Implicaría
dispensar un trato inequitativo a quienes integran una misma sociedad.
VIII.3.c. Sistema de resolución de conflictos a partir de la situación de jurídica de todos los agentes
implicados en la situación de necesidad
Explica el autor que el sistema de resolución de los conflictos en situaciones de necesidad se asienta en
nuestro actual ordenamiento jurídico sobre un principio defectivo de imputación de la desgracia (casum sentit
dominus). En principio, es el sujeto sobre el que se cierne el peligro no imputable a un tercero el llamado a
soportar su realización, quedando prima facie vedado el desplazamiento a un tercero de ese mal. Con un
ejemplo: el coche autopilotado que únicamente puede salvar la vida de su ocupante invadiendo la acera y
atropellando mortalmente a un paseante no puede ser programado para efectuar tal maniobra evasiva, incluso
cuando ello suponga la muerte de su ocupante y este no sea responsable en sentido fuerte por la situación de
necesidad. Este principio defectivo de imputación de la desgracia, sin embargo, no rige con carácter universal.
Por un lado, conforme al principio de autonomía, son llamados a soportar los costes del conflicto aquellos
agentes que de un modo plena o parcialmente responsable lo han originado. De dicho principio se derivan las
causas de justificación de la legítima defensa y del estado de necesidad defensivo, así como el consentimiento
como causa de exclusión del injusto. En buena lógica, el coche autopilotado que sólo puede evitar la muerte de
un peatón que negligentemente cruza la calzada a través de una maniobra evasiva que acabará con la vida de su
ocupante ha de ser programado para omitir tal maniobra. A igualdad de bienes en juego, aquí la vida, la
provocación responsable de la situación de conflicto ha de ser el factor decisivo para su solución.
Por otro lado, también el principio de solidaridad puede exceptuar excepcionalmente la vigencia del
principio del casum sentit dominus. Es decir, el afectado por el peligro puede desplazárselo a un tercero que
nada tiene que ver con su origen siempre y cuando salvaguarde con ello un interés esencialmente preponderante
al que lesiona. Así lo establece la dogmática del estado de necesidad agresivo. El coche autónomo que sólo
puede salvar la vida de su ocupante invadiendo la acera y provocando importantes destrozos materiales en una
terraza ha de ser programado efectivamente para realizar tal maniobra evasiva. No ya, en cambio, cuando en la
terraza se encuentre un ser humano que resultaría gravemente lesionado.
Finalmente, afirma Coca Vila que la dogmática de la colisión de deberes también ha de jugar un papel
importante a la hora de programar los algoritmos de necesidad. Allí donde dos sujetos se encuentren
amenazados por un mismo peligro, la mera equivalencia entre los intereses en juego ha de ser suficiente para
legitimar el sentido de programación del algoritmo. Con un ejemplo: el coche autopiloteado que o bien frena
para evitar atropellar a un peatón negligente que repentinamente cruza la calzada, o bien no frena para evitar así
que el motorista que le sigue sin respetar la distancia de seguridad muera al chocar con la luna trasera del
automóvil puede adoptar en su programación cualquiera de las dos soluciones dables, pues, a equivalencia de
deberes, el cumplimiento de cualquiera excluye el injusto por la no satisfacción del opuesto.
Con esta base, debería entonces el legislador establecer cuál es el modelo que seguir a fin de que los

© Thomson Reuters Información Legal 23


Documento

fabricantes adopten el sistema que el Estado considere más adecuado. Una vez definido el mismo (que
entendemos que debe ser el que propone Coca Vila en tercer lugar), todo rodado debería circular con base en el
algoritmo ético prefijado.
A partir de allí, al menos resultará más sencillo resolver las situaciones que escapen de dicho marco legal.
En primer lugar, encontraremos la situación del programador o cualquier tercero que configura los
algoritmos de necesidad apartándose de los estándares de comportamiento debido, ya sea para que priorice la
seguridad del usuario del coche, reduciendo la siniestralidad del automóvil y de esa manera aumentar sus
ventas; o bien para imponer su propia visión (antijurídica) de cómo deberían resolverse las situaciones
conflictivas, por ejemplo, adoptando el criterio utilitarista. En estos supuestos, la responsabilidad resulta
indudable dado que existe una decisión expresa de apartarse del marco legal vigente.
En segundo lugar, se encuentra la situación del propio usuario del automóvil que altera el algoritmo de
necesidad ya sea para proteger su vida por sobre cualquier otra, o para imponer su moral dilemática ante
situaciones de conflicto en las que están en juego derechos ajenos. Coca Vila plantea el caso del proteccionista
acérrimo de animales que prefiere acabar con la vida del ser humano que responsablemente causa un accidente
antes que atropellar mortalmente a un animal que nada tiene que ver con la situación de necesidad.
En estos supuestos, partiendo del marco legal impuesto a los programadores, la resolución de estos casos se
torna sencilla y la responsabilidad de estos evidente.
Ahora bien, para establecer cuál es el modelo que los Estados deberían seguir, en una posición que
considero harto cuestionable, investigadores del Media Lab del MIT (Instituto Tecnológico de Massachusetts) y
del Departamento de Machine Learning de la CMU —Universidad Carnegie Mellon—, fundaron una
plataforma para resolver el problema del tranvía y el auto autónomo.
Implementaron un sitio web que instrumenta un sistema de toma de decisiones basado en un tejido de
votación. La solución estaría en la construcción de un consenso que determine cuál es el mal menor. La idea es
que el vehículo automatizado deberá ser programado con base en esa sentencia colectiva ética.
El sitio pertenece al MIT (26), y allí se le propone a quien desee participar, un programa de votación de trece
situaciones ante las cuales cada usuario elige qué debe hacer un auto autónomo ante un desenlace trágico.
Entre los actores que confluyen en las hipótesis de accidentes, hay adultos, jóvenes, mujeres, hombres,
profesionales, delincuentes, mascotas, ocupantes, peatones y peatones que infringen la ley. En verdad, lo que se
presenta como democrático, no es más que una velada campaña en pos de imponer la corriente utilitarista. Y
esto no es ingenuo.
Debo confesar que concurrí al sitio y al ver tan sólo el primer supuesto a decidir, me fue imposible continuar
sabiendo que mi voto iba a participar de una decisión que tal vez pudiera en un futuro definir la vida o la muerte
de un ser querido, sin una introspección y reflexión profunda sobre las consecuencias del mismo. Fue tan
impactante la representación, que jamás pude efectuar un solo cliqueo.
Y luego, viendo las imágenes en otras páginas (27) (puesto que no pude avanzar en el test por lo antes
explicado), confirmé que las propuestas conducían inconscientemente a convalidar un sistema que tomaba sus
decisiones según el sexo, la edad, o escala social de la víctima. Es decir, imponían el modelo utilitarista.
Y el problema es que los resultados obtenidos producto de la participación masiva de usuarios carentes del
conocimiento de estas teorías y sus implicancias, habrán de gozar de un halo "democrático" que terminará
otorgándole el grado de legitimidad necesaria para que a posteriori los legisladores (también desprovistos del
conocimiento de estas líneas morales), terminen transformándolo en marco legal vigente.
De esta manera, de abrazarse esta solución se abren escenarios mucho más preocupantes que los planteados
por Coca Vila.
Pensemos por ejemplo que los algoritmos sean "propiciados" por la industria aseguradora. Es posible que en
busca de la maximización de la tasa de ganancia, en algún país se opte por hacer que la IA decida cargar el
resultado dañoso sobre aquellas personas cuya vida tenga menor valor que otras. Imaginemos un auto en el que
se encuentra una figura de la música que genera millones con cada canción, y que habrá de morir si el rodado
choca con un talud de tierra, pero que resultará indemne si opta por atropellar a un grupo de cinco personas sin
techo. En la lógica de estos tiempos, tomada la decisión económica, el rodado arrastrará la vida de los inocentes.
Y de seguro, en lugar de reprochar la decisión, se abrirá un debate mediático en el que no se tardará en decir
desde alguna tribuna que la decisión de la IA fue acertada por todo lo que el cantante le "brinda" a la sociedad y
que su pérdida hubiera sido una desaparición "injusta". A estos debates también habremos de acostumbrarnos
con tantos intereses en juego de imponerse esta visión promovida por la postura utilitarista.

© Thomson Reuters Información Legal 24


Documento

Por consiguiente, es menester que el Derecho en general, y el del Consumo en particular, definan
prioritariamente las pautas de programación que deberán seguir los creadores de IA a fin de establecer los
parámetros deseables como sociedad, luego de un debate profundo y sosegado con especialistas. Pero debemos
hacerlo pronto porque la programación ya ha comenzado.
VIII.4. Resolución del Parlamento Europeo, de fecha 16/02/2017, el cual establece recomendaciones
destinadas a la Comisión sobre normas de Derecho civil sobre robótica [2015/2103(INL)]
Hemos dicho pasajes atrás que esta Resolución constituye una cita obligada para quienes pretendan avanzar
en estos nuevos desafíos. Y su labor es tan precisa, que uno de los tópicos tratados es el que lleva como título
"Medios de transporte autónomos"
En su primer apartado, se expide sobre los "a) Vehículos autónomos", y coincidiendo con nuestra suerte de
desesperación, indica que:
"(...) 25. Considera que el sector del automóvil es el que precisa más urgentemente de normas de la Unión y
mundiales que garanticen el desarrollo transfronterizo de los vehículos autónomos y automatizados con el fin de
explotar plenamente su potencial económico y beneficiarse de los efectos positivos de las tendencias
tecnológicas; subraya que la fragmentación de los enfoques normativos podría obstaculizar la implantación de
los sistemas de transporte autónomos y poner en peligro la competitividad europea;
"26. Pone de relieve que, en el caso de una toma de control imprevista del vehículo, el tiempo de reacción
del conductor tiene una importancia capital, y pide, por tanto, a las partes interesadas que prevean valores
realistas que determinen los aspectos de seguridad y responsabilidad;
"27. Considera que la transición a los vehículos autónomos repercutirá en los siguientes aspectos: la
responsabilidad civil (responsabilidad y seguros), la seguridad vial, todas las cuestiones relativas al medio
ambiente (por ejemplo, eficiencia energética, uso de tecnologías renovables y fuentes de energía), las cuestiones
relativas a los datos (por ejemplo, acceso a los datos, protección de los datos personales y la intimidad,
intercambio de datos), las cuestiones relativas a la infraestructura TIC (por ejemplo, alta densidad de
comunicaciones eficientes y fiables) y el empleo (por ejemplo, creación y pérdida de puestos de trabajo,
formación de los conductores de vehículos pesados para el uso de vehículos automatizados); subraya que se
necesitarán inversiones considerables en las infraestructuras viarias, energéticas y de TIC; pide a la Comisión
que examine los aspectos mencionados en sus trabajos sobre los vehículos autónomos;
"28. Subraya la importancia decisiva que para la implantación de vehículos autónomos tiene la fiabilidad de
la información de posición y tiempo proporcionada por los programas europeos de navegación por satélite
Galileo y EGNOS; insta, en este contexto, a que se pongan a punto y se lancen lo antes posible los satélites
necesarios para completar el sistema europeo de posicionamiento Galileo;
"29. Pone de relieve el gran valor añadido de los vehículos autónomos para las personas con movilidad
reducida, puesto que mejoran su participación en el transporte individual por carretera y, de ese modo, hacen
más fácil su vida cotidiana".
El mensaje es claro. Este campo requiere de una regulación coordinada y urgente. Llamado de atención para
nuestro país siempre en emergencia.
IX. Robots, bots, cíborgs, androides, programas ¿sinónimos? Una necesaria diferenciación
En este avance de los desafíos que nos presenta fundamentalmente la IA, es muy común observar en el
diario acontecer, el uso de términos que muchas veces se dan como sinónimos, sin en realidad serlo. Este es el
caso de la multiplicidad de conceptos utilizados en torno a la robótica. Y creemos que cada uno de ellos merece
su precisión a fin de poder realizar análisis más precisos y complejos de cada situación planteada.
IX.1. Cíborg
En una primera instancia, vale definir el concepto de cíborg. La Real Academia lo define: "Del ingl. cyborg,
acrónimo de cybernetic organism 'organismo cibernético'. 1. m. Ser formado por materia viva y dispositivos
electrónicos".
Wikipedia explica que es una criatura compuesta de elementos orgánicos y dispositivos cibernéticos
generalmente con la intención de mejorar las capacidades de la parte orgánica mediante el uso de tecnología. "El
término fue acuñado por Manfred E. Clynes y Nathan S. Kline en 1960 para referirse a un ser humano mejorado
que podría sobrevivir en entornos extraterrestres. Llegaron a esa idea después de pensar sobre la necesidad de
una relación más íntima entre los humanos y las máquinas en un momento en que empezaba a trazarse la nueva
frontera representada por la exploración del espacio. Diseñador de instrumentación fisiológica y de sistemas de
procesamiento de datos, Clynes era el director científico del Laboratorio de simulación dinámica de Rockland

© Thomson Reuters Información Legal 25


Documento

State Hospital, en Nueva York. El término apareció por primera vez en forma impresa, 5 meses antes, cuando
The New York Times reportó sobre los aspectos psicofisiológicos del Espacio Simposio de vuelo donde Clynes
y Kline presentaron por primera vez su papel: "Un cyborg es esencialmente un sistema hombre-máquina en el
cual los mecanismos de control de la porción humana son modificados externamente por medicamentos o
dispositivos de regulación para que el ser pueda vivir en un entorno diferente al normal".
De acuerdo con algunas definiciones del término, la conexión física y metafísica de la humanidad con la
tecnología, ya ha empezado a influir en la evolución futura del ser humano, al empezar a convertirnos en
ciborgs. Por ejemplo, una persona a la que se le haya implantado un marcapasos podría considerarse un ciborg,
puesto que sería incapaz de sobrevivir sin ese componente mecánico. Otras tecnologías médicas, como el
implante coclear, que permite que un sordo oiga a través de un micrófono externo conectado a su nervio
auditivo, también hacen que sus usuarios adquieran acceso a un sentido gracias a la tecnología, aproximando su
experiencia a la de un ciborg. (...) ]El término se suele utilizar erróneamente en numerosos escritos al
confundirlo con robot del tipo androide" (28).
Sobre este tópico volveremos más adelante.
IX.2. Programa
Es importante comprender el concepto de "programa", a fin de estudiar otros fenómenos. La Real Academia
Española lo define como: "(Del lat. programma, y este del gr. π�����μμ�). 11. m. Cada una de las operaciones
que, en un orden determinado, ejecutan ciertas máquinas. 12. m. Inform. Conjunto unitario de instrucciones que
permite a un ordenador realizar funciones diversas, como el tratamiento de textos, el diseño de gráficos, la
resolución de problemas matemáticos, el manejo de bancos de datos, etc.".
IX.3. Robot
El robot es definido como "(Del ingl. robot, y este del checo robota, trabajo, prestación personal). 1. m.
Máquina o ingenio electrónico programable, capaz de manipular objetos y realizar operaciones antes reservadas
solo a las personas".
IX.4. Bot
El término "bot", aceptado en la jerga gamer (jugadores) pero no en la RAE. La palabra "bot" deriva de
robot, pero no son sinónimos. Todo bot es un programa informático, pero un programa informático no tiene por
qué ser un bot. Es claro entonces que estamos hablando de un término con perfiles propios.
Según la RAE todo robot tiene, o bien un soporte físico, o bien hace cosas que las personas solían hacer. De
allí que "bot" aluda a los sistemas virtuales de software, mientras que "robot" importa el conjunto tanto físico
como virtual.
El bot es un programa diseñado para interactuar con otros programas, servicios de internet o seres humanos
como cualquier persona haría, pero con el objetivo de disminuir el trabajo a realizar tareas tediosas. Por
ejemplo, me atrevo a catalogar como "bot", al fantástico proyecto de Inteligencia Artificial denominado
"Prometea", que lleva adelante el Ministerio Público Fiscal de CABA (29).
Es por demás interesante el gráfico que propone el blog Bioblogía, y que reproducimos a continuación.

© Thomson Reuters Información Legal 26


Documento

Explica el sitio con base en el cuadro anterior que vale "destacar que toda herramienta fabricada por el
hombre que no sustituya tareas, por ejemplo, una bombilla que da luz (una persona no es capaz de generarla por
sí misma si no es utilizando su inteligencia para crear herramientas que le permitan generarla), estaría dentro de
soporte físico. Todos los programas estarían en soporte virtual, en tanto no imitaran comportamiento humano
(hacer cuentas por ejemplo, las matemáticas son una ciencia exacta que no se ve sometida a interpretación
comportamental) y dentro del comportamiento humano estarían todas las corrientes de pensamiento, lógicas o
no, que podrían ser imitadas por los programas y / o máquinas" (30).
Wikipedia explica que los usos principales de los bots son:
— Rastrear información en la web (web crawler): con un script automático se capta, analiza y almacena
información de un servidor web de forma automatizada y mucho más rápido de lo que lo haría una persona.
Cada servidor puede tener un archivo llamado robots.txt, que contiene reglas para su rastreo.
— Dar respuestas rápidas: los bots de juegos o los de webs de subastas en línea ofrecen respuestas de
manera mucho más rápida y efectiva que un humano.
— Mantener conversaciones: los bots conversacionales simulan una conversación humana al proveer
respuestas automáticas a entradas hechas por el usuario.
— Editar de manera automática: En sitios wiki, como Wikipedia (véase "Wikipedia:Bot"), los bots realizan
funciones rutinarias de edición, como corregir faltas de ortografía, mantener la coherencia de los enlaces,
detectar y revertir las contribuciones vandálicas, etc.
— Simular tráfico en Internet y las redes sociales: los bots se utilizan para aumentar el número de
seguidores de manera artificial, para generar artificialmente visitas a sitios web, para posicionar hashtags y
temas para convertirlos en trending topics, o para influir positiva o negativamente en una conversación (31).
IX.5. Androide
La RAE señala que la palabra androide significa "Autómata de figura de hombre". Es por esto que
comienzan las discusiones sobre cuando es correcto hablar de un androide y cuando de un robot, ya que suele
usarse este último término para referirse a ambos.
Según Wikipedia, un androide es un robot u organismo sintético antropomorfo que, además de imitar la
apariencia humana, emula algunos aspectos de su conducta de manera autónoma. Es un término mencionado
por primera vez por Alberto Magno en 1270 y popularizado por el autor francés Auguste Villiers en su novela
de 1886 La Eva futura.

© Thomson Reuters Información Legal 27


Documento

Etimológicamente, "androide" se refiere a los robots humanoides de aspecto masculino. A los robots de
apariencia femenina se los llama ocasionalmente "ginoides", principalmente en las obras de ciencia ficción. En
el lenguaje coloquial, el término "androide" suele usarse para ambos casos, aunque también se emplean las
expresiones genéricas "robot humanoide" y "robot antropoide" (32).
De allí entonces que podamos concluir que cuando un robot es diseñado con forma humana, adquiere la
denominación de "androide" o "ginoide".
X. (S)er humano ¿una minusvalía? Los desafíos a partir de los ciborgs
Un nuevo nivel de discapacidad parece avizorarse en un futuro no muy lejano: el de ser humano. Así, ser
humano a secas; tal como la naturaleza ha delineado nuestros rasgos humanos.
Yuval Harari ha revolucionado con sus obras "Sapiens. De animales a Dioses" y "Homo Deus. Breve
historia del mañana". El historiador plantea que la especie humana evolucionará a ciborg en los próximos 200
años, de manera tal que la fusión entre el hombre y la máquina será la mayor evolución biológica desde la
emergencia de la vida hace millones de años.
El autor explica que será el mercado el que genere la explosión de los injertos electrónicos a fin de
incrementar la capacidad del hombre. Un ejemplo actual es el de Neil Harbisson, a quien se ha calificado como
el primer ciborg. Neil nació con acromatopsia, enfermedad que impide distinguir la gama completa de colores:
solo observaba los valores blancos, negros y grises. Como solución a su problema, le fue injertada una antena
auditiva que conectada al cerebro le permite "escuchar" los colores, incluso hasta percibir algunos invisibles
como infrarrojos y ultravioletas, lo que le otorga la ventaja de saber si los niveles son adecuados para tomar sol,
pero además, pintar de una manera distinta. La antena cuenta con un receptor externo siempre orientado hacia
donde dirige la mirada. Gracias a un pequeño chip, el aparato es capaz de traducir las distintas frecuencias de la
luz y la composición de los colores del mundo real, en frecuencias audibles. Esto implica la transformación de
su carencia en una potencialidad superior a la del resto de los mortales.
Ante escenarios como estos, Harari sostiene que no pasará mucho tiempo hasta que alguien busque
colocarse dicha solución tecnológica, no por padecer acomatopsia, sino por el deseo de experimentar más
colores que el resto de los mortales, y de esa manera, elaborar obras pictóricas mejores que las de sus
compañeros de estudio por ejemplo.
Pero claro, la sobrecapacidad del mismo generará una diferencia competitiva que los restantes querrán
equiparar, recurriendo al mismo o a un dispositivo superior.
Como sostiene Harari, sólo será necesario que el mercado encuentre allí un nicho de negocio, para que la
inserción de dispositivos artificiales en el cuerpo humano se vuelva una fuente de ingresos, y con ello su
proliferación. Para ello, da cuenta de lo acontecido con las cirugías estéticas, nacidas originariamente con el fin
de reparar las heridas sufridas por soldados en combate y que vio desbordado su campo de actuación una vez
que mutó de reparadora en estética, y con ello, en servicio comercializable.
Esto habrá de generar nuevas tensiones sociales que harán foco precisamente en el derecho del consumo.
En primer lugar, porque como sostiene Harari, solo los más ricos tendrán acceso a esta tecnología ciborg, lo
que ampliará la brecha entre ricos y pobres en la sociedad (33).
Pero además, nos plantea debates más cercanos. Por ejemplo, ¿se le podrá reclamar la cobertura del injerto
artificial a la obra social o prepaga? ¿O al Estado? Pensemos en la cirugía estética reparadora en materia de
prótesis mamarias, que hoy se reclama a las obras sociales y prepagas, aun cuando no formen parte del plan (34).
Es claro que en este caso, la intervención es consecuencia de una patología previa. Pero es la necesidad de
volver a tener las formas originarias las que motivan el reclamo. ¿Qué diferencia hay entonces con las futuras
peticiones por parte de quienes vean sus capacidades naturales disminuidas frente a la competencia de quienes
pueden comprar las potencialidades artificiales? Ellos también buscarán la igualdad "reparadora". Y ello nos
habrá de transportar a un campo mucho más complejo cual es el de las políticas públicas. ¿Tolerará una
democracia un camino hacia una desigualdad tan evidente? El cuerpo humano más perfecto, habrá de ser en un
futuro próximo, una minusvalía.
Esto plantea nuevos desafíos profundos para la conformación del tejido social.
Más preocupante aún, es lo que plantea la resolución del Parlamento Europeo antes citada. En sus
considerandos 36 y siguientes, bajo el título "Rehabilitación e intervenciones en el cuerpo humano", reconoce
los grandes progresos de la robótica, así como su potencial futuro en el ámbito de la rehabilitación de órganos
dañados y el restablecimiento de funciones corporales reducidas, "pero es consciente de las complejas
cuestiones que ello suscita, en particular por las posibilidades de intervención en el cuerpo humano, en la

© Thomson Reuters Información Legal 28


Documento

medida en que los robots médicos y, en particular, los sistemas ciberfísicos (SCF) pueden modificar
sustancialmente nuestras concepciones en torno al cuerpo humano sano, en cuanto que pueden llevarse o
implantarse directamente en el cuerpo humano".
Para ello requiere establecer con carácter de urgencia, comités de ética sobre robótica en los hospitales y
otras instituciones sanitarias, debidamente dotados con el personal apropiado y encargados de examinar y
contribuir a resolver problemas éticos inusuales y complejos relacionados con cuestiones que afecten al cuidado
y el tratamiento de los pacientes.
Ahora bien, atento que las prótesis futuras dependerán de software cada vez más complejos, la
Recomendación señala que "...en el ámbito de aplicaciones médicas vitales, como las prótesis robóticas, debe
garantizarse el acceso continuo y sostenible al mantenimiento, la mejora y, en particular, las actualizaciones de
software que subsanan fallos y vulnerabilidades;
"38. Recomienda la creación de entidades de confianza independientes con el fin de retener los medios
necesarios para proporcionar a las personas que lleven dispositivos médicos vitales y avanzados los servicios
que precisan, como mantenimiento, reparaciones y mejoras, incluidas actualizaciones de software,
especialmente cuando el proveedor original deje de prestar dichos servicios; sugiere que se prevea la obligación
de que los fabricantes proporcionen instrucciones de diseño global, incluido el código fuente, a estas entidades
de confianza independientes, de forma similar al depósito legal de publicaciones en una biblioteca nacional".
Este último punto resulta fundamental, dado que la desaparición de una firma productora de dispositivos
electrónicos médicos por las razones que fueran, conllevará en muchos casos el cese de las innovaciones y hasta
la pérdida de los "código fuente". De allí que la conservación propuesta por la Recomendación resulte harto
necesaria para asegurar tanto la calidad como la vida misma respecto de las personas con dispositivos
artificiales.
Por su parte, en el punto 39 señala los riesgos de la manipulación o la desconexión de los sistemas
ciberfísicos (SCF) integrados en el cuerpo humano o del borrado de su memoria, ya que ello podría poner en
peligro la salud humana, o en un caso extremo incluso la vida del ser humano, y por ello destaca la prioridad de
que se protejan tales sistemas.
Y aquí si en una declaración de neto carácter solidario, requiere garantizar "...el acceso en pie de igualdad
para todos a estas innovaciones tecnológicas, a los instrumentos y a las intervenciones de que se trata; pide a la
Comisión y a los Estados miembros que promuevan el desarrollo de tecnologías de apoyo, con el fin de
promover el desarrollo y la adopción de estas tecnologías por parte de los individuos que las necesiten, de
conformidad con el art. 4º de la Convención de las Naciones Unidas sobre los derechos de las personas con
discapacidad, de la que la Unión es signataria".
XI. Inteligencia artificial y ¿humanoides con personalidad o productos elaborados?
XI.1. ¿Personalidad electrónica?
Hemos visto que la inteligencia artificial puede presentarse en distintos "envases", incluido, en forma de
androides. Al asignarle rasgos humanos, muchas dudas comienzan a resquebrajar las sólidas bases aprendidas.
¿Podemos decir que esas figuras, ya no solo con rasgos humanos, sino con capacidad facial de expresar
emociones, hablar, llorar a nuestro lado, y hasta de aprender con cada interacción son "productos elaborados"?
Sé que puede resultarnos extraño, pero este debate habrá de impactar de lleno en el Derecho en general, y en
el del consumo en particular.
Es que una posibilidad firme es la de asignar personalidad "electrónica" a estos androides, un nuevo tipo de
personalidad complementaria de la humana y la jurídica.
De tomarse ese camino, al Derecho del Consumo poco y nada le quedará por hacer, dado que estaremos en
presencia de sujetos y no de objetos. ¿Se comprende la magnitud del debate?
Para entender la seriedad de lo planteado, vale referir que un humanoide de nombre "Sophia", en 2017 fue
declarada ciudadana de Arabia Saudita, uno de los países más comprometidos actualmente con el desarrollo
tecnológico. Nunca antes se había hecho algo así y ni siquiera se había planteado formalmente. Sophia ha sido
diseñada por Hanson Robotics en Hong Kong, China, y una de sus mayores características es que posee un total
de 62 expresiones faciales, usando cada una de ellas en función del contexto y de la conversión. Además de
tener tantas expresiones faciales, es capaz de reconocer a la persona con la que está hablando. Incluso, sus
creadores afirman que tiene personalidad propia, dado que es una Inteligencia Artificial que va aprendiendo en
cada conversación y en cada situación.
Bien señala Santos González (35), Coordinadora del Departamento Jurídico del Instituto Nacional de

© Thomson Reuters Información Legal 29


Documento

Ciberseguridad de España, S.A., que "En un futuro cercano las personas vamos a convivir con robots, bots,
androides y otras formas de inteligencia artificial cada vez más sofisticadas. Se están realizando investigaciones
para que un robot pueda deducir y anticipar reacciones humanas y su capacidad y flexibilidad para adaptarse y/o
tomar decisiones fuera de los planes predeterminados a través de las técnicas de la probabilidad, estadísticas y
los patrones. Esto va suponer una nueva revolución y el legislador debe reflexionar sobre estas cuestiones y las
consecuencias que de la coexistencia robots-humanos derivan. Según el Departamento de interior de Estados
Unidos, los robots inteligentes o máquinas autónomas avanzadas serán una realidad entre 2022 y 2027 y en
Japón se habla de que esto ocurrirá en el 2030, de hecho en este país el Gobierno en 2004 aprobó el
establecimiento de zonas especiales 'Tokku' para probar los robots en entornos reales. El mercado global de la
robótica industrial pasará de 29 mil millones de dólares en el 2013 a 44,48 mil millones de dólares para el año
2020".
En nuestro país, Romina Florencia Gianfelici se ha referido a la cuestión (36). La joven jurista enfrenta el
tema diciendo, "Se ha dicho 'démosle derechos a los robots ya que tarde o temprano serán quienes pagarán
nuestra jubilación'. Ahora ¿para qué darles derechos si sólo queremos que tributen? A la misma solución
llegamos si hacemos que sus dueños lo hagan por ellos. Reconocer lo contrario sería una forma de diluir la
personalidad, atento a que se generarían problemas adicionales, llegando al absurdo de pensar que los robots
podrían casarse, tener un patrimonio, etc., desde que toda persona tiene un poder para actuar en el ámbito
jurídico por sí misma o por medio de un representante. Análisis este, que nos puede llevar a límites
inimaginables: ¿podrán acaso votar, participar de las cámaras legislativas, ser funcionarios públicos, jueces,
abogados u otros profesionales...? El robot siempre pertenece o sirve a alguien. Está pensado como algo útil
para el hombre. No tendría sentido crear robots para que simplemente paseen por la calle sin ninguna utilidad".
Creemos que el punto es que estos dilemas que Gianfelici presenta como inverosímiles, son los que
debemos comenzar a plantearnos como una realidad. Vale referir que ya se está analizando desde la psicología
la denominada "Robofilia" como un fenómeno vigente, esto es, el amor entre un humanoide y un humano.
Y ello es absolutamente válido ante un escenario en el cual se conjugan los diseños realísticos que incluyen
texturas similares a la piel, cabello, etc., con la inteligencia artificial que permite la conversación y la
interrelación con el "otro". De allí que estos temas comiencen a generar necesariamente esos debates que se
presentaban como estrambóticos (37).
Y lo expuesto adquiere mayor envergadura cuando las Recomendaciones de la Unión Europea tantas veces
citadas, piden a la Comisión que "cuando realice una evaluación de impacto de su futuro instrumento
legislativo, explore, analice y considere las implicaciones de todas las posibles soluciones jurídicas, tales como:
(...) f) crear a largo plazo una personalidad jurídica específica para los robots, de forma que como mínimo los
robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los
daños que puedan causar, y posiblemente aplicar la personalidad electrónica a aquellos supuestos en los que los
robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente".
Insisto, palabras de la Unión Europea que se atreve a mirar más allá, y que planifica el futuro. Algo que en
la Argentina del cortoplacismo permanente, se declara prohibido. Y que para colmo, a quien se atreve a romper
esas limitantes de frustración, prontamente corren a cargarlo con el mote de fantasioso o de desconectado de la
realidad acuciante cotidiana. En nuestro país se prohíbe pensar más allá de la semana próxima. Tal vez allí estén
algunas de las razones de nuestro fracaso constante.
En tanto, mientras creemos precariamente que eso es el compromiso con la comunidad, en la Unión Europea
durante el año 2015 se creó un grupo de trabajo llamado Grupo de Evaluación de las Opciones Científicas y
Tecnológicas (STOA) que servirá de apoyo al legislador europeo. Este Grupo ya ha realizado un estudio
prospectivo titulado "Aspectos éticos de los Sistemas ciberfísicos". Se plantean posibles conflictos éticos
relacionados con la tecnología que se espera hasta 2050 y clasifica la tecnología en función de sus áreas de
aplicación como puede ser asistencia sanitaria, agricultura, fabricación, energía, infraestructuras críticas,
logística y transporte, seguridad entre otros. Plantea problemas morales que deberían abordarse por el
legislador, como por ejemplo el ya tratado respecto de los vehículos autónomos. Las principales cuestiones
jurídicas entre otras a afrontar son la responsabilidad, la seguridad, la concepción jurídica de los robots, la
propiedad de los datos y la privacidad.
XI.2. La responsabilidad de robots y humanoides
Previo entonces a tratar la personalidad de los androides, sí habrá de resultar menester resolver cuestiones
vinculadas a la responsabilidad civil derivada de su accionar, por cuanto ello es lo que presenta el estado actual
de la ciencia.
En su muy interesante libro Sánchez del Campo Redonet (38) se pregunta qué ocurre si un robot causa daños.

© Thomson Reuters Información Legal 30


Documento

El autor sostiene "La pregunta tiene truco porque el concepto de robot es muy laxo, de manera que puede
abarcar desde aparatos sencillos que únicamente desarrollan una función, como podría ser la aspiradora
Roomba, hasta máquinas sofisticadas como Asimo.
"El primero de los supuestos es más fácil de contestar. En materia de productos defectuosos rige en España
la Ley General para la Defensa de los Consumidores y Usuarios (en adelante LGDCU), aprobada por Real
Decreto Legislativo 1/2007, de 16 de noviembre, que viene a complementar el régimen general contenido en los
arts. 1902 y ss. y 1101 y ss. de nuestro Código Civil.
"(...) Ahora bien, el tema se complica un poco más cuando nos movemos al terreno de los robots
"inteligentes". La profesora de e-governance de la Universidad de Strathclyde (Glasgow) Lilian Edwards
ejemplifica determinadas situaciones nos pueden parecer de ciencia ficción pero que muy probablemente
tengamos que resolver a corto plazo, en concreto: ¿qué pasaría si un humanoide militar matara a un civil? ¿Y si
un robot dedicado a cuidar ancianos le indicara tomar más pastillas de las que debería? ¿Quién es responsable si
un coche sin conductor es hackeado y atropella a un peatón? ¿Y si un "robot sexual" aplica las preferencias de
un usuario (por ejemplo, recibir azotes) a otro y le provoca daños?
"En principio, la norma aplicable sería igualmente la LGDCU porque un robot es un producto, pero las
circunstancias especiales y singulares de los casos mencionados complican la respuesta jurídica, por los
siguientes motivos:
a) Es probable que muchos de esos robots permitan la personalización por parte del usuario y/o la
instalación de aplicaciones adicionales que le doten de funcionalidades no incluidas inicialmente en el producto,
por lo que será mucho más difícil determinar qué elemento provocó el daño y por tanto ejercitar las oportunas
acciones de reclamación.
"En su trabajo académico 'Open Robotics' publicado en el año 2010, Ryan Calo, profesor de derecho en las
universidades de Washington y Stanford y uno de los mayores expertos mundiales en temas legales
relacionados con robótica, propone que se conceda un cierto grado de inmunidad a los fabricantes de
plataformas robóticas abiertas (entendiendo por tales las que permiten la instalación de aplicaciones o
programas de terceros) respecto al uso que los usuarios hagan de las mismas, de manera similar al régimen que
existe para los intermediarios de internet.
"Calo afirma en ese mismo artículo, que el mundo de los estándares abiertos plantea definitivamente más
retos jurídicos que el de las plataformas propietarias pero también genera muchas más oportunidades para los
desarrolladores. así como ventajas indudables para los usuarios. Todas estas virtudes se pueden poner en riesgo
si el régimen legal de responsabilidad no es el adecuado.
"b) La LGDCU establece que producto defectuoso es 'aquel que no ofrezca la seguridad que cabría
legítimamente esperar, teniendo en cuenta todas las circunstancias'. El punto de partida es razonable pero su
aplicación puede ser complicada en determinados supuestos, por ejemplo cuando hablamos de los llamados
coches autónomos o coches conectados en los no será necesaria la presencia de una persona que pilote el
vehículo. ... Estos vehículos se comunicarán entre ellos y también interactuarán constantemente con los
semáforos, las señales y los smartphones de los peatones (...).
"c) ¿Cuál es el uso 'razonablemente previsto' de un robot multipropósito y diseñado para vivir con humanos
como Pepper? ¿Tiene sentido que las condiciones generales de uso de Pepper regulen todo lo que no es
"razonable" hacer con él? ¿Qué efecto tendrían las cláusulas de exoneración o limitación de responsabilidad en
estos casos? Son cuestiones difíciles de responder en este momento tan incipiente de la tecnología. Los jueces
tendrán que ir perfilando la interpretación que debemos adoptar.
"d) Pero quizá la mayor dificultad que se va a plantear es cómo aplicar el régimen de responsabilidad
examinado anteriormente a algoritmos 'inteligentes', que aprenden de la interacción con las personas de su
entorno y pueden ser capaces de actuar de una manera no prevista inicialmente. Es cierto que a día de hoy este
planteamiento no es viable pero muchos de los desarrollos en el campo de la inteligencia artificial están
intentando imitar el funcionamiento del cerebro humano. No olvidemos que Estados Unidos está trabajando en
el proyecto denominado 'Brain Iniciative' para comprender cómo el cerebro piensa, aprende y recuerda y la
Unión Europea se ha embarcado en una aventura parecida ('Human Brain Project'), con la finalidad de
desarrollar tecnologías de computación que simulen el funcionamiento del cerebro así como de crear nuevos
tratamientos para las patologías mentales.
"¿Quién sería responsable en ese caso de actuación no prevista? ¿Debemos prohibir o limitar esta
posibilidad en el momento del diseño de forma que únicamente puedan ejecutar las tareas o funciones para las
que se les diseñó originariamente? Es lo que conoce como code as law o regulation by design: la tecnología no
es sólo objeto de regulación sino que también participa en la misma por ejemplo mediante la implementación en
© Thomson Reuters Información Legal 31
Documento

las máquinas/sistemas autónomos de un conjunto de requisitos éticos y legales, de forma que puedan
comportarse de acuerdo con dichas reglas".
Estos desafíos han sido analizados por la Recomendación de la Unión Europea de 2017, la cual sostiene:
"(...) Considerando que, gracias a los impresionantes avances tecnológicos de la última década, los robots ya
no solo pueden realizar actividades que antes eran típica y exclusivamente humanas, sino que el desarrollo de
determinados rasgos cognitivos y autónomos —como la capacidad de aprender de la experiencia y tomar
decisiones cuasi independientes— ha hecho que estos robots se asimilen cada vez más a agentes que interactúan
con su entorno y pueden modificarlo de forma significativa; que, en este contexto, es crucial la cuestión de la
responsabilidad jurídica por los daños que pueda ocasionar la actuación de los robots;
"AA. Considerando que la autonomía de un robot puede definirse como la capacidad de tomar decisiones y
aplicarlas en el mundo exterior, con independencia de todo control o influencia externos; que esa autonomía es
puramente tecnológica y que será mayor cuanto mayor sea el grado de sofisticación con que se haya diseñado el
robot para interactuar con su entorno;
"AB. Considerando que, cuanto más autónomos sean los robots, más difícil será considerarlos simples
instrumentos en manos de otros agentes (como el fabricante, el operador, el propietario, el usuario, etc.); que
esta circunstancia, a su vez, suscita la cuestión de si la normativa general sobre responsabilidad es suficiente o si
se requieren normas y principios específicos que aporten claridad sobre la responsabilidad jurídica de los
distintos agentes y su responsabilidad por los actos y omisiones de los robots cuya causa no pueda atribuirse a
un agente humano concreto, y de si los actos u omisiones de los robots que han causado daños podrían haberse
evitado;
"AC. Considerando que, en última instancia, la autonomía de los robots suscita la cuestión de su naturaleza
y de si pertenecen a una de las categorías jurídicas existentes o si debe crearse una nueva categoría con sus
propias características jurídicas;
"AD. Considerando que, en el actual marco jurídico, los robots no pueden ser considerados responsables de
los actos u omisiones que causan daños a terceros; que las normas vigentes en materia de responsabilidad
contemplan los casos en los que es posible atribuir la acción u omisión del robot a un agente humano concreto
—como el fabricante, el operador, el propietario o el usuario—, y en los que dicho agente podía haber previsto y
evitado el comportamiento del robot que ocasionó los daños; que, además, los fabricantes, los operadores, los
propietarios o los usuarios podrían ser considerados objetivamente responsables de los actos u omisiones de un
robot;
"AE. Considerando que, según el marco jurídico vigente, la responsabilidad por daños causados por
productos defectuosos —en la que el fabricante de un producto es responsable de un mal funcionamiento— y
las normas que rigen la responsabilidad por una actuación que ocasiona daños —en la que el usuario de un
producto es responsable de un comportamiento que deriva en un perjuicio— se aplican a los daños ocasionados
por los robots o la inteligencia artificial;
"AF. Considerando que, en el supuesto de que un robot pueda tomar decisiones autónomas, las normas
tradicionales no bastarán para generar responsabilidad jurídica por los daños ocasionados por el robot, ya que no
permitirán determinar la parte que ha de hacerse cargo de la indemnización, ni exigir a dicha parte que repare el
daño ocasionado;
"AG. Considerando que también son manifiestas las deficiencias del marco jurídico vigente en el ámbito de
la responsabilidad contractual, ya que la existencia de máquinas concebidas para elegir a sus contrapartes,
negociar cláusulas contractuales, celebrar contratos y decidir sobre su aplicación hace inaplicables las normas
tradicionales; considerando que esto pone de relieve la necesidad de adoptar nuevas normas eficientes y
actualizadas, acordes con los avances tecnológicos y las innovaciones recientemente aparecidas y utilizadas en
el mercado;
"AH. Considerando que en materia de responsabilidad extracontractual podría no ser suficiente el marco
ofrecido por la Directiva 85/374/CEE que solo cubre los daños ocasionados por los defectos de fabricación de
un robot a condición de que el perjudicado pueda demostrar el daño real, el defecto del producto y la relación de
causa a efecto entre el defecto y el daño (responsabilidad objetiva o responsabilidad sin culpa);
"AI. Considerando que, pese al ámbito de aplicación de la Directiva 85/374/CEE, el marco jurídico vigente
no bastaría para cubrir los daños causados por la nueva generación de robots, en la medida en que se les puede
dotar de capacidades de adaptación y aprendizaje que entrañan cierto grado de imprevisibilidad en su
comportamiento, ya que un robot podría aprender de forma autónoma de sus experiencias concretas e
interactuar con su entorno de un modo imprevisible y propio únicamente a ese robot; (...)".

© Thomson Reuters Información Legal 32


Documento

Cada uno de los puntos merece un análisis específico que, atento la extensión del presente, reservaremos
para futuras oportunidades, pero que no queríamos dejar de citar como disparadores para comenzar a pensar en
esta convocatoria a reflexionar sobre el futuro.
XII. Corolario. La revolución 4.0. La excusa perfecta para cambiar el destino de la Argentina
Hemos dejado multiplicidad de temas fuera de agenda, pero queríamos centrarnos en algunos de los
fenómenos que el futuro inminente nos propone.
Del derrotero efectuado surge evidente como me enseñara mi Maestro Carlos Ghersi, que el derecho sin
interconexión con las demás ciencias, es mera ficción. Es menester concurrir al encuentro de las otras ramas del
saber a fin de escucharlos, aprender, acompañarlos, pero también, fijar límites en pos de la conservación de la
humanidad en todos los sentidos del término.
Avanzamos hacia un mundo que es realmente cada día más complejo. Esto no es un cliché sino una verdad
inapelable. Y mientras ello ocurre, nuestro país sigue encerrado en las discusiones del siglo pasado, sin
comprender que su cuerpo intelectual y político debe estar concentrando sus esfuerzos de manera urgente en
pensar el siglo XXII (si 22).
Pero claro, ello requiere diálogo, esfuerzo y por sobre todo, serenidad. Y ello es difícil de conseguir sin un
programa estatal de futuro consensuado por todas las fuerzas políticas. ¿De qué sirve el poder si no es para
cambiar para mejor la realidad de sus habitantes? Nuestra dirigencia parece preocupada por la conquista del
poder, pero por el poder mismo, sin un plan de actuación. Y en consecuencia, las decisiones siempre responden
a la coyuntura y no a un plan de desarrollo a largo plazo. Medidas aisladas dan alguna esperanza (como la ley de
apoyo al emprendedor, o la obligación de incluir la robótica en la currícula de todas las escuelas primarias y
secundarias, públicas y privadas), pero sin conexión entre ellas (al menos, no comunicada a la ciudadanía).
Pero hoy tenemos una oportunidad. Este escenario reflejado previamente puede ser una excusa para torcer el
rumbo. Estos cambios pueden ser un desafío para políticos y dirigentes en general. Y no solo para las nuevas
generaciones, sino fundamentalmente para aquellas ubicadas por sobre los 35 años que quieren y buscan tener
poder de decisión. Si la voluntad de esas capas etarias es alcanzar el poder, deberán formarse entonces en estos
nuevos desafíos y ser los líderes de esta revolución.
Para ello, deben apoyarse y escuchar a los científicos y emprendedores. Deben formar cuerpos asesores
como el creado por la Unión Europea en el 2015. Deben pensar como mínimo, a cincuenta años vista. Y
comunicar a la ciudadanía cuál es el objetivo perseguido y el rumbo que habrán de tomar. Y cómo habrá de
alcanzarse esa meta. Y dar cuenta pública y en forma periódica de sus avances. E involucrar a la gente de a pie
en el sueño de ser una sociedad de avanzada en materia "artificial", apoyando a sus emprendedores, pero
resguardando el carácter solidario y humanista del sistema.
Lo pido como ciudadano e investigador amante de esta Argentina, que se angustia al descubrirse repitiendo
frases de sus antepasados sobre que este país no "cambia más".
Insisto, tenemos una excusa perfecta para cambiar el rumbo de nuestro país. Para ello, un buen primer paso
sería, insisto hasta el cansancio: 1.— que la dirigencia tome conciencia del desafío, 2.— que el Estado cree una
comisión nacional de estudio, promoción y seguimiento de la robótica y la IA con neto perfil humanista,
integrada por innovadores, emprendedores, y científicos de las distintas ramas del saber, y con un idea y vuelta
permanente con las Altas Casas de Estudio; 3.— que se le imponga a la citada Comisión la obligación de
elaborar un proyecto de actuación para los próximos 50 años, en el plazo máximo de un año desde su creación
(o antes de resultar posible), y 4.— una vez alcanzado el objetivo, involucrar a toda la ciudadanía tras esa meta,
de forma que cada argentina/o se despierte cada día con ansias de saber cuánto hemos avanzado.
Solo así podremos enfrentar la complejidad del devenir, y pensar en dejar de ser hijos de los designios de
terceros, forjando un futuro de desarrollo con claro sentido humanista.
Finis coronat opus.
(*)
(1) HOBBES, T., "Leviatán o la materia, forma y poder una república, eclesiástica y civil", trad. De M.
Sánchez Sarto, Ed. Fondo de Cultura Económica, México, 1987.
(2)
http://www.inalde.edu.co/sala-de-prensa/revista-inalde/detalle-central/ic.el-reto-comercial-5generaciones-diferentes-en-un-mismo-
al 16/01/2018.
(3) Grande, Pa! fue una serie de televisión argentina de comedia dramática. Comenzó a emitirse en el año
1991 como un programa para ese verano, pero debido a su éxito se extendió por 4 temporadas, finalizando en
© Thomson Reuters Información Legal 33
Documento

1994 por la pantalla de Telefe. Luego, en 1995 el canal decidió emitir repeticiones de la tira. El libro del
programa fue escrito por Patricia Maldonado, Gius (Augusto Giustozzi), Gustavo Barrios y Ricardo Rodríguez,
y fue dirigida por Víctor Stella. Era protagonizada por Arturo Puig y María Leal, junto a Nancy Anka, Julieta
Fazzari y Gabriela Allegue. La serie contaba la historia de un viudo que se encargaba de sus tres hijas, a las que
su niñera (María Leal) apodaba las "Chancles". Fue un éxito enorme y marcó hasta 63 puntos de audiencia en
horario central, algo que no se ha repetido (https://es.wikipedia.org/wiki/%C2%A1Grande,_Pa!).
(4) WOLMAN, Ariel, "Están matando a la televisión: solo los mayores de 65 años la sostienen", Infobae,
26/08/2018.
(5) CS, 11/12/1984, "Ponzetti de Balbín, Indalia c. Editorial Atlántida SA", LA LEY 1985-B, 120 con nota
de Julio C. RIVERA, Colección de Análisis Jurisprudencial Derecho Civil — Parte General, Ed. La Ley,
Buenos Aires, 2003, p. 21, con nota de Julio C. RIVERA, Colección de Análisis Jurisprudencial Derecho Civil
— Parte General, Ed. La Ley, 2003, p. 294, con nota de José W. TOBÍAS; FELDMAN, Paula, en Colección de
Análisis Jurisprudencial Teoría Gral. del Derecho, Ricardo A. Guibourg, 286 DJ 1985-1-768 JA 985-I, 513 ED
112, 242, AR/JUR/999/1984.
(6) Ley 25.326. Art. 2º - (Definiciones). A los fines de la presente ley se entiende por: (...) - Datos
sensibles: Datos personales que revelan origen racial y étnico, opiniones políticas, convicciones religiosas,
filosóficas o morales, afiliación sindical e información referente a la salud o a la vida sexual" (...) "Art. 7º -
(Categoría de datos). 1. Ninguna persona puede ser obligada a proporcionar datos sensibles. 2. Los datos
sensibles sólo pueden ser recolectados y objeto de tratamiento cuando medien razones de interés general
autorizadas por ley. También podrán ser tratados con finalidades estadísticas o científicas cuando no puedan ser
identificados sus titulares. 3. Queda prohibida la formación de archivos, bancos o registros que almacenen
información que directa o indirectamente revele datos sensibles. Sin perjuicio de ello, la Iglesia Católica, las
asociaciones religiosas y las organizaciones políticas y sindicales podrán llevar un registro de sus miembros. 4.
Los datos relativos a antecedentes penales o contravencionales sólo pueden ser objeto de tratamiento por parte
de las autoridades públicas competentes, en el marco de las leyes y reglamentaciones respectivas".
(7) O'NEIL, Cathy, "Armas de destrucción matemática. Cómo el Big Data aumenta la desigualdad y
amenaza la democracia", Ed. Capitán Swing, Madrid, 2018.
(8) Ibidem.
(9) Ibidem, p. 28.
(10) Ibidem, p. 40.
(11) Ibidem, p. 177.
(12) Ibidem, p. 179.
(13) https://creditscoredating.com/ (última consulta el 10 de septiembre de 2018). En su portada de acceso
se lee "CreditScoreDating.com. Where good credit is sexy".
(14) O'NEIL, Cathy, "Armas...", ob. cit., ps. 192 y ss.
(15) Puede leerse en Wikipedia que "La economía, estúpido" (the economy, stupid), fue una frase muy
utilizada en la política estadounidense durante la campaña electoral de Bill Clinton en 1992 contra George H.
W. Bush (padre), que lo llevó a convertirse en presidente de los Estados Unidos. Luego la frase se popularizó
como "es la economía, estúpido" y la estructura de la misma ha sido utilizada para destacar los más diversos
aspectos que se consideran esenciales. La frase era uno de los eslóganes de campaña ideados por James Carville
para la campaña presidencial de 1992 de Bill Clinton, quien al iniciar la misma enfrentaba a un Bush que era
considerado imbatible por la mayoría de los analistas políticos, fundamentalmente debido a sus éxitos en
política exterior, como el fin de la Guerra Fría y la Guerra del Golfo Pérsico. Su popularidad entonces había
llegado al 90% de aceptación, un récord histórico. La citada frase respondía a la idea de que Clinton debía
enfocarse sobre cuestiones más relacionadas con la vida cotidiana de los ciudadanos y sus necesidades más
inmediatas. La frase se instaló en la cultura política estadounidense y también internacionalmente. Usualmente
se expresa para destacar lo importante y ha sido utilizada para referirse a otras cuestiones consideradas
esenciales. Es por ello, que creemos que esta frase sintetiza el impacto de la IA, dado que afecta todos y cada
uno de los aspectos presentes, pero fundamentalmente futuros de nuestras vidas. ¡Es la IA, estúpido! (fuente
https://es.wikipedia.org/wiki/Es_la_econom%C3%ADa,_est%C3%BApido) al 11 de septiembre de 2018.
(16) BODEN, Margaret A., "Inteligencia artificial", Ed. Turner, Madrid, 2017, p. 11
(17) JAIMOVICH, Desirée, "Algoritmos racistas, machistas y extremistas: ¿se necesita enseñarles ética a
los robots?, Infobae.com, 5/07/2018.

© Thomson Reuters Información Legal 34


Documento

(18)
https://elcomercio.pe/tecnologia/actualidad/autos-autonomos-empresas-vienen-desarrollando-vehiculos-noticia-505990.
(19) Toda esta información ha sido elaborada y obra en
https://www.xataka.com/automovil/de-0-a-5-cuales-son-los-diferentes-niveles-de-conduccion-autonoma al día
10 de septiembre de 2018.
(20)
https://www.xataka.com/automovil/donde-esta-realmente-el-coche-autonomo-a-dia-de-hoy-y-que-han-prometido-las-marcas-en-el-
al día 10 de septiembre de 2018.
(21) Mientras que en julio de 2016 trascendió la primera muerte conocida de un pasajero en un coche
autopilotado, al estrellarse este contra un camión en Florida
(www.elpais.com/tecnologia/2016/07/01/actualidad/1467337732_779288.html), en marzo de 2018 se produjo el
primer atropello mortal de un coche autónomo en Arizona. La víctima, una mujer de 49 años, fue arrollada
cuando cruzaba una calzada fuera del paso de peatones
(www.elpais.com/tecnologia/2018/03/19/actualidad/1521479089_032894.html).
(22) Recomendamos la lectura de este artículo que puede encontrarse en
https://www.xataka.com/vehiculos/
son-realmente-mas-seguros-los-coches-autonomos-que-las-personas-al-volante al 10 de septiembre de 2018.
(23) COCA VILA, Ivó, "La exculpación de hechos lesivos programados. Una primera reflexión a propósito
de la configuración antijurídica de los algoritmos de necesidad de coches autónomos", RDP 2018-6, 1130.
(24) https://www.wired.com/2014/08/heres-a-terrible-idea-robot-cars-with-adjustable-ethics-settings al 10
de septiembre de 2010.
(25) COCA VILA, Ivó, "La exculpación...", ob. cit.
(26) http://moralmachine.mit.edu/hl/es
(27) https://retina.elpais.com/retina/2017/09/01/tendencias/ 1504259307_956984.html al 10 de septiembre
de 2018.
(28) https://es.wikipedia.org/wiki/C%C3%ADborg al 11 de septiembre de 2018.
(29) CORBALÁN, Juan Gustavo, "La primera inteligencia artificial predictiva al servicio de la Justicia:
Prometea", LA LEY, 29/09/2017, p. 1. En su artículo se lee: "Desde que asumimos la gestión en el Ministerio
Público Fiscal de la Ciudad de Buenos Aires, y gracias al apoyo de Luis Cevasco, Fiscal General Adjunto a
cargo de la Fiscalía de la Ciudad de Buenos Aires, venimos trabajando fuertemente en las nuevas tecnologías.
Puntualmente, en todo lo que se refiere a las tecnologías de la información y de la comunicación (TIC). En el
transcurso de 2017 hemos desarrollado el primer sistema de inteligencia artificial predictivo que además trabaja
con un asistente de voz (tal como lo hace Siri de Apple) y permite realizar un dictamen jurídico de manera
íntegra. El modelo predictivo es asombroso, inédito y reciente (de hace unos días). El procedimiento es
conducido íntegramente por la IA, de la siguiente manera: llega un expediente a dictaminar, que no ha sido
analizado por ninguna persona. Se carga entonces el número de expediente a la inteligencia artificial Prometea,
y en pocos segundos después pasa todo lo que se detalla a continuación. El sistema de IA busca la carátula en la
página del Tribunal Superior de Justicia de la Ciudad de Buenos Aires, lo asocia con otro número (vinculado a
las actuaciones principales) y luego va a la página del Poder Judicial de la Ciudad Autónoma de Buenos Aires
(Juscaba). Busca y lee las sentencias de primera y segunda instancia, luego analiza más de 1400 dictámenes
(emitidos durante 2016 y 2017), para finalmente emitir la predicción. En concreto nos dice que detecta un
modelo determinado para resolver el expediente y nos ofrece la posibilidad de completar algunos datos para
imprimir o enviar a revisar el dictamen con base en ese modelo (esto mismo podría hacer, si se tratara de dictar
una sentencia). Durante este mes y todo el mes de octubre nos abocaremos a validar el sistema predictivo (lo
que involucra medir reducción de tiempos, entre otras cosas), más allá de que en estas primeras muestras la
precisión de Prometea es asombrosa. Incluso un expediente ingresado a la Fiscalía y que había sido
preclasificado por una persona del equipo sobre un tema, en pocos segundos Prometea sugirió aplicar un
modelo de dictamen vinculado a otro tema diferente; y precisamente este era el que correspondía".
(30) http://biobloguer.blogspot.com/2011/10/diferencias-entre-bots-robots-y.html al 11 de septiembre de
2018.
(31) https://es.wikipedia.org/wiki/Bot al 11 de septiembre de 2018.
(32) https://es.wikipedia.org/wiki/Androide al 11 de septiembre de 2018
(33) HARARI, Yuval N., "Homo Deus. Breve historia del mañana", Ed. Penguin Random, Barcelona,
© Thomson Reuters Información Legal 35
Documento

2017.
(34) Ver en tal sentido fallo confirmatorio de la CNCiv., 02/07/2015, sala H, "C., A. c. Omint S.C. Salud
S.A. y otros s/ daños y perjuicios", cita online: AR/JUR/25686/2015. Allí se dice: "En el fallo se hizo lugar al
reclamo incoado por una persona a quien se le diagnosticó cáncer de mama y que, luego de someterse a una
mastectomía y a quimioterapia; pretendió que su medicina prepaga abone el costo de una cirugía reparadora del
pecho, algo a lo que la empresa se negó por considerar que se trataba de un tratamiento meramente estético".
(35) SANTOS GONZÁLEZ, María José, "Regulación Legal de la Robótica y la Inteligencia Artificial:
Retos de futuro", Revista Jurídica de la Universidad de León, nro. 4, 2017, ps. 25-50.
(36) GIANFELICI, Romina F., ponencia presentada ante las XXVI Jornadas Nacionales de Derecho Civil,
Comisión nº 14, Estudiantes: "Persona física no humana" Tema: Personalidad jurídica electrónica como persona
física no humana ¿futurología o realidad?, http://jornadasderechocivil.jursoc.unlp.edu.ar/wp-content/uploads/
sites/
10/2017/08/GIANFELICI-Florencia-Romina-Personalidad-jur%C3%ADdica-electr%C3%B3nica-como-persona-f%C3%ADsica-n
(37) "Los pronósticos respecto a los robots sexuales van más allá de la mera satisfacción física. Se augura
que serán máquinas de compañía con las que las personas establecerán vínculos emocionales y de las que
algunos llegarán a enamorarse. Incluso se ha puesto nombre ya a esa relación: robofilia. ¿Exagerado? "Si
establecemos vínculos muy potentes con una mascota, que no habla, es fácil imaginar que los crearemos aún
más fuertes con un robot con el que te podrás comunicar, compartir memorias e información y desarrollar una
relación íntima", asegura Ricard Solé, físico, biólogo e investigador Icrea en la Universitat Pompeu Fabra
(UPF). "Los humanos transferimos emociones hacia cualquier cosa, sean mascotas u objetos, y por eso llevamos
en nuestra memoria emocional nuestro primer coche, el primer móvil... Y en los robots se suma la forma
antropomórfica, que lo hace más fácil", apunta el especialista en filosofía de la ciencia y la computación Jordi
Vallverdú, que investiga sobre emociones sintéticas. "Con las máquinas construimos nuestra intimidad y
desarrollamos afectividad; basta ver cómo hay gente que se estresa más si tiene un problema con su ordenador o
con el móvil que si discute con alguien porque su identidad está construida con eso; y un robot que te atiende,
que trabaja y está contigo, que te permite interactuar, que te da soporte intelectual al compartir información
contigo se convierte en un álter ego; puede que en el futuro uno cambie de casa, de pareja, de trabajo o de
amigos y lo único estable que tenga sea su robot", explica Antonio López Peláez, profesor de la UNED,
especialista en la interrelación entre tecnologías y trabajo social y editor de The Robotics Divide (la brecha
robótica)" ("Robofilia: ¿Cuándo serán normales las relaciones sexuales con robots?", Infobae, 16/10/2017).
(38) SÁNCHEZ DEL CAMPO REDONET, Alejandro, "Reflexiones de un replicante legal. Los retos
jurídicos de la robótica y las tecnologías disruptivas", Ed. Aranzadi, Madrid, 2016, 1ª ed., edición e-book.

© Thomson Reuters Información Legal 36

También podría gustarte