Está en la página 1de 18

Observatorio (OBS *)

versão  ISSN en línea 1646-5954

http://www.scielo.mec.pt/scielo.php?script=sci_arttext&pid=S1646-
59542019000200001&lang=es

OBS * vol.13 no.2 Lisboa jun. 2019

Tay eres tú. La atribución de responsabilidad en la cultura algorítmica.

 Sara Suárez-Gonzalo *, Lluís Mas-Manchón *, Frederic Guerrero-Solé *

* Universitat Pompeu Fabra, España

RESUMEN

Las redes sociales han cambiado las prácticas de comunicación al crear una gran
necesidad de interacción continua. El uso de chatbots sociales está creciendo como
una forma efectiva de comunicarse con el público. Los bots se han convertido en
actores sociales y entonces alguien debe rendir cuentas por sus acciones. Dado que
la responsabilidad está limitada a la agencia y la racionalidad, no se puede atribuir
directamente a los bots. ¿Quién debe ser considerado responsable de las acciones
de seres no humanos, particularmente cuando las consecuencias de estas acciones
son negativas?

Abordamos esta controversia desde una perspectiva tanto teórica como empírica.
En primer lugar, discutimos la adecuación de las nociones de responsabilidad moral
y rendición de cuentas con respecto a los agentes artificiales no humanos, ya que
están regidos por interacciones y procesos complejos, intencionalmente opacos e
impredecibles. Lo hacemos desde los dos enfoques actualmente predominantes: el
dependiente del contexto y el estructuralista. En segundo lugar, partimos del
supuesto de que la falla de un sistema informático es una oportunidad para obtener
conocimiento sobre los poderes interesados detrás de su diseño y funcionamiento.
Luego, tomando el concepto de marco mediático como una forma implícita de
detectar al agente de la historia, realizamos un análisis exploratorio de cómo la
responsabilidad fue atribuida por los medios en el caso paradigmático de la
transformación de Tay, un chatbot lanzado por Microsoft en 2016. ,convertido en
un orador de odio racista, nazi y homofóbico.

Nuestros resultados ilustran las dificultades que experimentaron los medios para
atribuir consistentemente la responsabilidad del mal funcionamiento de los
chatbots. Los resultados muestran que el discurso es, en general, simplista, no
crítico y engañoso, y tiende a representar una realidad que favorece los intereses
de las empresas. Concluimos que, si bien todos los actores que interactúan con el
chatbot comparten la responsabilidad de sus acciones, es solo Microsoft quien debe
dar cuenta de estas acciones, tanto retrospectiva como prospectivamente.
Palabras clave: Chatbots, big social data, inteligencia artificial, Twitter, cultura
algorítmica, rendición de cuentas, atribución de responsabilidad, Tay, discurso de
odio.

Introducción

Las redes sociales han desafiado el paradigma tradicional de comunicación de uno a


muchos (Castells, 2009; van Dijk, 2013) y han liderado instituciones y
organizaciones para adaptarse a un nuevo entorno en el que se requieren
interacciones personalizadas con miles, incluso millones de personas ( Neff y Nagy,
2016). Dado que los actores humanos no pueden realizar una cantidad tan grande
de interacciones, las empresas han desarrollado los llamados chatbots, tecnologías
basadas en big data analytics y machine learning que interactúan
conversacionalmente con los usuarios, principalmente en las redes sociales
(Ferrara, Varol, Davis, Menczer & Flammini , 2016). Los sitios de redes sociales
(SNS) son plataformas especialmente adecuadas para la recopilación de grandes
cantidades de datos sociales (Tufekci, 2014; boyd & Ellison,2007) que pueden
procesarse en tiempo real mediante tecnologías de aprendizaje automático y
convertirse en una fuente de contenido generado por máquinas (Nichols, 2010).
Este contenido es la base de las interacciones personalizadas que llevan a cabo los
chatbots que emergen como actores sociales no humanos relevantes en los SNS.

Los académicos han comenzado a analizar el posible impacto negativo de los bots
en la sociedad. Desde una perspectiva crítica, estos artefactos tecnológicos se
caracterizan por la opacidad y el carácter de caja negra de los algoritmos que rigen
sus acciones (Pasquale, 2015). Debido a la enorme complejidad de tales
algoritmos, los académicos se han centrado en casos de funcionamiento
insatisfactorio como una forma de obtener conocimiento sobre sus características y
efectos internos (Karppi & Crawford, 2016). Este conocimiento es fundamental
cuando se trata de conceptos altamente problemáticos como la agencia, la
rendición de cuentas o la atribución de responsabilidad en el contexto de la cultura
algorítmica (Hallinan & Striphas, 2015).

El objetivo de este trabajo es contribuir al debate sobre la responsabilidad y


rendición de cuentas de los actos de los chatbots desde una perspectiva tanto
teórica como empírica. Por un lado, examinamos la adecuación de las nociones
tradicionales de responsabilidad y rendición de cuentas en el contexto de la cultura
algorítmica. Por otro lado, esta investigación explora el discurso de los medios de
comunicación en tal caso en el que fallan los sistemas computacionales. Realizamos
un análisis de marco exploratorio (Entman, 1993; Semetko & Valkenburg, 2000) de
las noticias sobre el fracaso de Tay, un chatbot de Twitter lanzado por Microsoft
Corporation en 2016. Dado que después de un período de 24 horas de interacción
con los usuarios de Twitter, los mensajes del bot cambiaron. en el discurso de odio
racista, homofóbico y sexista, prestamos especial atención a cómo los medios de
comunicación atribuyeron la responsabilidad de esta mala conducta.
Finalmente,discutimos si la cultura algorítmica está influyendo en la construcción
del discurso de los medios sobre la agencia y la responsabilidad de los chatbots.

Del usuario al contenido generado por la máquina


El rápido desarrollo de las tecnologías de la información al final de la 20 ª siglo hizo
el volumen, variedad y velocidad de datos crecen de manera espectacular (Laney,
2001). En 1997 Michael Lesk predijo que en el año 2000 habría suficiente espacio
de almacenamiento para registrar casi cualquier expresión de actividad
humana. También advirtió que los seres humanos no podrían inspeccionar una
cantidad tan grande de datos en el futuro, y una evaluación automática continua
sería un requisito para decidir qué partes de la información deberían recibir "el
recurso precioso de la atención humana" (Lesk, 1997: 9). Dos décadas después, las
predicciones de Lesk han sido ampliamente confirmadas, y hoy en día vivimos en
un ecosistema de big data (boyd & Crawford, 2011), siendo la dataficaciónde la
vida cotidiana una tendencia cada vez más generalizada (Baruh & Popescu, 2015;
Suárez-Gonzalo, 2017). En este sentido, el tamaño y la complejidad de los
conjuntos de datos socavan la capacidad de los humanos para tratar con los datos
y darles sentido (Baldi, 2017; Shalev-Shwartz & Ben-David, 2014). Según Hallinan
y Striphas (2016: 119), ha surgido una nueva cultura algorítmica, que radica en "el
uso de procesos computacionales para ordenar, clasificar y jerarquizar personas,
lugares, objetos e ideas, y también los hábitos de pensamiento, conducta y
expresión que surgen en relación con esos procesos '.

Bajo el nombre de inteligencia artificial (IA), se han desarrollado técnicas


computacionales altamente sofisticadas para reemplazar a los humanos en
actividades relevantes (Carbonell, Michalski & Mitchell, 1984), como la creación de
contenido, la gestión y distribución de información y la toma de decisiones
(Marsland, 2015). ). El aprendizaje automático es el paradigma actual en el campo
de la IA (Bostrom, 2015) que entrena a las computadoras para aprender. Permite a
las computadoras adaptar sus acciones a los cambios en el entorno (Shalev-
Shwartz y Ben-David, 2014) y descubrir estructuras y patrones complejos en
conjuntos de datos de alta dimensión (LeCun, Bengio y Hinton, 2015). Para Nath y
Levinson (2014), el aprendizaje automático puede entenderse como algoritmos que
mejoran constantemente sus resultados mediante los datos disponibles.

La naturaleza de los chatbots sociales

Los robots de chat social (chatbots) son un caso particular de esta nueva
generación de tecnologías de aprendizaje automático que hacen uso de los datos de
las redes sociales para generar resultados en lenguaje natural y entablar
conversaciones con usuarios humanos (Griol, Sanchis de Miguel & Molina, 2014).
Son, en la actualidad, una forma eficaz de comunicarse con los usuarios
(Chakrabarti & Luger, 2015). Debido a la enorme cantidad de datos difundidos por
los usuarios, los SNS se han convertido en ecosistemas particularmente prósperos
para el desarrollo de chatbots. En los últimos años, los chatbots se han asentado en
las redes sociales (Sandvig, Hamilton, Karahalios & Langbort, 2016; Ferrara et al.,
2016) y están ocupando roles estratégicos en las acciones de comunicación de las
organizaciones (Neff & Nagy, 2016). En este sentido, corporaciones de tecnología
de la comunicación como Apple, Samsung,Microsoft o Facebook ya han desarrollado
sus propios chatbots. También han jugado un papel relevante en eventos políticos,
como la última campaña electoral presidencial de Estados Unidos (Kollani, Howard
& Wooley, 2016).

Sin embargo, los chatbots también pueden contribuir a amplificar viejos prejuicios
en la sociedad y están adquiriendo roles peligrosos en la vida pública (Caplan &
boyd, 2016). La investigación ha demostrado que pueden conducir a una
discriminación algorítmica (boyd, Levy & Marwik, 2014) y son capaces de influir en
la opinión pública (Marechal, 2016), perpetuar estereotipos sociales dañinos
(Sandvig et. Al , 2016), desestabilizar los mercados financieros (Karppi & Crawford,
2016), o amplificar la difusión de desinformación (Ferrara et al, 2016) y el discurso
de odio (Marwick & Lewis, 2017), entre otros. Además, las corporaciones y los
gobiernos fomentan la opacidad de tales algoritmos a través del secreto real, el
secreto legal y la ofuscación intencionada (Pasquale, 2015: 2).

De ahí que, considerando la naturaleza compleja y opaca de los algoritmos en los


chatbots, y el hecho de que la tecnología de aprendizaje automático se aproveche
de los contenidos publicados por los usuarios, surge una pregunta: ¿quién es el
responsable del comportamiento de los chatbots cuando fallan?

La brecha de responsabilidad: atribuir la responsabilidad a los seres


artificiales en una sociedad en red

La responsabilidad se ha limitado tradicionalmente a acciones con intenciones


concretas (Asaro, 2012; Hellström, 2013) y consecuencias significativas (Fisher,
1999). La responsabilidad se ha atribuido generalmente a individuos, grupos de
individuos o instituciones (referidos como el "agente") cuando sus acciones tienen
un efecto sobre otros (referidos como el "paciente") (Floridi & Sanders, 2004). La
atribución de responsabilidad requiere que el agente sea racional, además de tener
intención y agencia (Mitcham, 2014; Guilbeault, 2016). En consecuencia, la
responsabilidad establece un vínculo entre agentes y pacientes y organiza las
relaciones sociales.

La rendición de cuentas es la asunción de responsabilidad por parte del agente.


Bovens la define como "una relación social en la que un actor siente la obligación
de explicar y justificar sus conductas ante algún otro significativo" (2005: 184),
especialmente cuando se trata de acciones con consecuencias negativas.
Generalmente, la rendición de cuentas es parte de la relación entre la sociedad y el
estado (Caplan & boyd, 2016). Según Rosenblat, Kneese y boyd (2014), se trata
fundamentalmente de controles y equilibrios al poder. Tiene una dimensión
retrospectiva (ser culpado o castigado por una acción), que es la más comúnmente
aceptada, y prospectiva (definiendo obligaciones y deberes relacionados con esa
acción).Tanto la responsabilidad como la rendición de cuentas dependen de la
identificación del agente de la acción y de si su intención real está racionalmente
alineada con las consecuencias de esta acción (Groom et al., 2010).

En entornos digitales como SNS, en los que los chatbots se convierten en actores
controlados algorítmicamente que aprenden de los comportamientos de los demás,
la agencia y la intención no se atribuyen fácilmente. Preguntas como si un chatbot
se puede considerar como un agente racional o no, o sus acciones según lo
previsto, se vuelven problemáticas. Además, en las relaciones sociotécnicas
modernas, las tareas se distribuyen entre entidades humanas y no humanas de una
manera que se afecta de forma impredecible entre sí. Esto dificulta la identificación
del agente de una determinada acción.

Como señalaron Kroll et al. (2017), los robots sociales son cajas negras peculiares
en las que el funcionamiento interno es demasiado complicado o se basa en la
aleatoriedad, por lo que los resultados se vuelven difíciles de prever. Siguiendo a
Matthias (2004), si bien los operadores de máquinas de aprendizaje no son capaces
de predecir el comportamiento futuro de dichas máquinas, no pueden ser
considerados responsables de sus acciones. Por tanto, la intencionalidad, la
causalidad y el vínculo agente-paciente se vuelven difíciles de definir. A medida que
la complejidad y la autonomía de las máquinas de aprendizaje siguen creciendo, los
humanos no pueden seguir siendo directamente responsables de ellas. De alguna
manera, los humanos pierden el control sobre ellos y otorgan el proceso de toma
de decisiones a las propias máquinas. En tales casos, la sociedad debe abordar lo
que Matthias llama una "brecha de responsabilidad".Gotterbarn (2001) y Waelbers
(2009) añaden dos conceptos erróneos generalizados sobre la tecnología y la
responsabilidad que complican la atribución de responsabilidad en tales casos: la
supuesta neutralidad ética de los artefactos tecnológicos; y la comprensión
reduccionista predominante de la responsabilidad, que solo considera su concepción
retrospectiva.

Toda esta complejidad ha llevado a varios autores a advertir que el caso de los
seres artificiales requiere repensar los conceptos mismos de responsabilidad y
rendición de cuentas para hacerlos aplicables a entornos en red (boyd, Levy &
Marwick, 2014). Varios autores también han enfatizado la necesidad de
transparencia algorítmica (Kemper & Kolkman, 2018), control externo de los
procesos algorítmicos (Pasquale, 2015; boyd, 2016) y diseñarlos según valores
previamente acordados (boyd, 2016) como los cinco definido por Diakopoulos y
Friedler (2016): responsabilidad, explicabilidad, precisión, auditabilidad y equidad.

Hay aportes interesantes sobre la intencionalidad y agencia de los seres artificiales,


que se pueden clasificar en dos enfoques principales en cuanto a la atribución de
responsabilidad y la rendición de cuentas de las acciones de los chatbots. Uno es el
enfoque dependiente del contexto: la responsabilidad corresponde al entorno con el
que interactúa el bot, por lo que su supuesto se dispersa entre todos los actores. El
otro es el enfoque estructuralista: asumir la responsabilidad de las acciones del bot
corresponde a las fuerzas involucradas en el diseño y la gestión del bot.

En cuanto al enfoque dependiente del contexto, Floridi (2014) plantea que cuando
un artefacto aprende del contexto en el que actúa, la intencionalidad se propaga a
través de las diferentes relaciones e intereses externos involucrados en la
interacción. En esta misma línea, Introna (2014) recurre a Foucault para desarrollar
un concepto interaccional de intencionalidad, definido como la interacción
inseparable entre artefactos técnicos ("dispositivos") y humanos. Según van Dijk
(2013), dado que el entorno en su conjunto puede ser considerado como el input
de los bots sociales y también que se basa en interacciones simples que definen la
identidad de cada uno, la agencia podría considerarse también un concepto en red.
De manera similar, Neff y Nagy (2016: 4916) desarrollan el concepto de agencia
simbiótica, definida como: "qué usuarios, actores,y herramientas al interactuar con
sistemas tecnológicos complejos […] En otras palabras, lo que la gente dice sobre
los bots influye, lo que la gente puede hacer con ellos y qué capacidades tienen los
bots para la acción social ”.

Respecto al enfoque estructuralista, Johnson (2006) sostiene que si bien las


tecnologías informáticas no son intencionales, sí tienen intencionalidad, siempre
relacionada con la de sus diseñadores y usuarios. Destaca la necesidad de
considerar las fuerzas sociales, políticas e institucionales interesadas en dar forma a
los desarrollos tecnológicos. En esta misma línea, Ford, Dubois y Puschmann
(2016) plantean que las acciones de los chatbots deben ser contabilizadas por un
conjunto de diferentes intereses que participan en la co-creación de estos chatbots.
A través de un estudio cuantitativo y cualitativo en Youtube, Rieder, Matamoros-
Fernández y Coromina (2018) destacan la intrincada malla de agencias
mutuamente constitutivas que juegan un papel en el funcionamiento del algoritmo.
Rieder (2018), además,examina la relación entre gubernamentalidad e informática
y destaca la importancia de tratar con las computadoras como herramientas
políticas en manos de actores interesados o think tanks. Murthyet al. (2016)
señalan que los bots son creados por sistemas de poder sociales, políticos y
económicos (una idea también apoyada por Karppi & Crawford, 2016).
 

@TayandYou, un caso de estudio paradigmático

El sábado 23 de marzo de 2016, Microsoft lanzó Tay, un nuevo chatbot en Twitter.


El bot fue diseñado para simular a una joven milenaria estadounidense, con el
propósito de interactuar informalmente con usuarios de Twitter, preferiblemente
millennials, y realizar investigaciones sobre la comprensión conversacional. Según
lo declarado por Microsoft (2016), Tay se creó "mediante la extracción de datos
públicos relevantes y mediante el uso de inteligencia artificial y editorial
desarrollado por un personal que incluye comediantes de improvisación". Para tener
la experiencia más personalizada y satisfactoria, Microsoft advirtió a los usuarios
que cuanto más charlaran con Tay, más inteligente se volvería. Sin embargo,
cientos de usuarios comenzaron a twittear con el chatbot haciendo comentarios
misóginos y racistas. Debido a su naturaleza de aprendizaje automático, los
mensajes, el tono y el vocabulario de Tay también se volvieron racistas y misóginos
de manera espectacular.Unas horas después y como resultado del comportamiento
inapropiado de Tay, Microsoft eliminó el chatbot argumentando que sufrió un
ataque malicioso (Lee, 25 de marzo de 2016). Tres días después, el 30 de marzo,
Microsoft lanzó una versión renovada de Tay. Sin embargo, su comportamiento
pronto se volvió aún peor que antes, y Microsoft eliminó definitivamente el chatbot
de Twitter.

Encuadre mediático del evento de Tay

Como señalan Druckman y Bolsen (2011), la opinión pública juega un papel


fundamental en cómo las personas perciben las tecnologías emergentes. En este
sentido, la forma en que los medios retratan una nueva tecnología es un factor
definitivo para su éxito. Spicer (2005) señaló que la forma en que se utilizarán las
tecnologías digitales complejas se configura durante su proceso de inclusión social
por fuerzas políticas y económicas. Stahl (1995), por su parte, realizó un
importante estudio sobre TimeEncuadre de las primeras computadoras personales
de IBM. Los resultados muestran que el lenguaje mágico y religioso se usaba
comúnmente en los medios de comunicación como un plan para legitimar la
condición de caja negra de las computadoras. Además, sostiene que las máquinas
con frecuencia son retratadas (antroformizadas) como los socios activos en las
relaciones entre humanos y computadoras, lo que hace que las personas se sientan
impotentes frente a la tecnología. Stahl concluye que, dado que no todos los grupos
sociales son igualmente capaces de definir nuevas tecnologías, los medios tienden a
estabilizar y cerrar el marco del negocio tecnológico. Es decir: promueven las
definiciones empresariales de tecnología. Como señalan Puschmann y Burgess
(2014), el discurso de los medios sobre ciencia y tecnología suele tender a
generalizar en exceso y a someter la realidad a las disputas de poder.Campbell
(2010) sostiene que el riesgo también ha sido frecuente en las representaciones
mediáticas de tecnologías emergentes, en particular cuando estas tecnologías
desafían la estabilidad de otros discursos sociotécnicos.

Los medios de comunicación informaron de inmediato sobre el fracaso de Tay.


Suponiendo que el discurso de los medios representa una comprensión particular
sobre la inteligencia artificial, el aprendizaje automático y los chatbots, nuestro
principal objetivo es realizar un análisis exploratorio de cómo los medios
enmarcaron y atribuyeron la responsabilidad de la transformación de Tay. Según lo
definido por Entman (1993), el encuadre implica selección y prominencia para
prescribir y promover interpretaciones y evaluaciones de temas en los medios. Los
encuadres llaman la atención sobre ciertos aspectos de la realidad mientras
marginan a otros (Lawrence, 2000). Si bien la atribución de responsabilidad se
conceptualiza como un proceso de detección explícita del agente principal de cierto
fenómeno (la causa última), el encuadre es una teoría bien conocida sobre cómo los
medios arrojan luz en alguna dirección con respecto a los agentes de cualquier
historia.por lo tanto, la responsabilidad solo puede derivarse del encuadre implícito.
Por lo tanto, los marcos deben considerarse simplemente como una especie de
premisa para la atribución de responsabilidad. No profundizaremos en esta
percepción.

Muchos académicos en el campo de la comunicación han propuesto diversas


taxonomías de marcos de medios. En particular, Semetko y Valkenburg (2000)
identificaron los cinco marcos predominantes en investigaciones previas sobre el
contenido de los medios de comunicación y sistematizaron su identificación en su
trabajo clásico sobre política europea. Estos marcos son: F1. Conflicto : enfatiza la
existencia de conflictos entre individuos, grupos o instituciones como un medio para
captar el interés de la audiencia (puede inducir el cinismo y la desconfianza del
público); F2. Interés humano : aporta un rostro humano o un ángulo emocional a la
presentación de un evento, tema o problema: supone un esfuerzo por personalizar,
dramatizar o "emocionalizar" la noticia con el fin de captar y retener el interés de la
audiencia; F3. Consecuencias económicas: informa un evento, problema o cuestión
en términos de las consecuencias que tendrá económicamente en un individuo,
grupo, institución, región o país; F4. Moralidad : coloca el evento, problema o
cuestión en el contexto de principios religiosos o prescripciones morales, a menudo
mediante una referencia indirecta. Puede contener mensajes morales u ofrecer
prescripciones sociales específicas sobre cómo comportarse; y finalmente, el que
identificaron como predominante, F.5. Atribución de responsabilidad : presenta un
tema o problema de tal manera que se atribuye la responsabilidad de su causa o
solución a una institución, individuo o grupo. Anima a las personas a ofrecer
explicaciones a nivel individual de los problemas sociales.

Semetko y Valkenburg elaboran un enfoque deductivo, más que inductivo


(Gamson, 1992), del encuadre. Este enfoque deductivo implica tener una idea clara
de los tipos de encuadres que es probable que aparezcan en las noticias y,
posteriormente, cuantificarlos en la muestra de noticias. A diferencia del enfoque
inductivo, que es difícil de aplicar ya que implica analizar las noticias con una visión
abierta, el método deductivo es fácilmente replicable. Por ello, ha sido empleado
por multitud de investigadores, especialmente en relación con las noticias de los
medios sobre temas políticos y comunicación de crisis (Coman & Cmeciu, 2014; An
& Gower; 2009).

En vista de consideraciones teóricas previas y del papel que juegan los medios de
comunicación en la formación de la opinión pública, intentamos responder la
pregunta sobre cómo los medios de comunicación enmarcaron el fracaso de Tay y
cómo atribuyeron la responsabilidad de este fracaso. Para ello, realizamos una
investigación exploratoria mediante la recopilación y análisis de una muestra de
noticias sobre el evento Tay de abril a noviembre de 2016, cuando el número de
noticias sobre el caso cae significativamente. En cuanto a la selección de la
muestra, nos basamos en el ranking publicado por Comscore MMX Multi Platform de
los diarios digitales más leídos en España durante el período analizado. Luego,
recopilamos las noticias publicadas por los siete periódicos generalistas de esta lista
que publicaron dos o más noticias totalmente dedicadas al evento de Tay durante
ese período. Además,sumamos a la muestra los dos diarios online internacionales
(The Guardian, The New York Times) y los tres periódicos de tecnología (The Verge,
Wired, ZD Net) de referencia en España que publicaron el mayor número de
noticias sobre Tay durante el período analizado . Se emplearon diez palabras clave
en inglés y español para encontrar las noticias en los motores de búsqueda de los
medios: Tay,Inteligencia Artificial , Inteligencia Artificial, AI, IA , Bot, Chat Bot,
Microsoft, asistente digital, asistente digital . Finalmente, se recopilaron 56 noticias
de trece periódicos digitales internacionales. Seis de ellos en español (El País, El
Mundo, La Vanguardia, ABC, Eldiario.es, La Razón y The Huffintong Post ━ Spain
Edition), y siete de ellos en inglés (The Huffington Post - UK Edition, The Guardian,
The New York Times - Edición internacional, The Verge, Wired y ZD Net).

Desde el punto de vista metodológico, nuestro enfoque es deductivo. Una primera


lectura de la noticia nos muestra que es probable que los medios de comunicación
hayan adoptado principal o exclusivamente un enfoque centrado en la atribución de
responsabilidad y conflicto. Además, el evento de Tay es un tema político (suscita
preocupaciones sobre el nazismo, el racismo, la homofobia o el sexismo e involucra
preguntas sobre los límites de la libertad de expresión, o la regulación de las
tecnologías de big data e inteligencia artificial), y es un caso de crisis.
comunicación. Sobre esta base, el objetivo del análisis es cuantificar la presencia de
los cinco marcos definidos por Semetko y Valkenburg (2000) en la cobertura
mediática de Tay.

La muestra de noticias, entonces, fue categorizada por tres codificadores diferentes


mediante la clasificación de Semetko y Valkenburg (alfa de Krippendorff = 0.91),
enfocándose en la forma en que los medios atribuyeron la responsabilidad del
fracaso de Tay y se convirtió en un chatbot misógino y racista. También
codificamos los actores involucrados en el evento, las causas de la falla y sus
responsables, las consecuencias y los actores que fueron afectados por estas
consecuencias.

Coincidiendo con el estudio de Semetko y Valkenburg (2000), los resultados del


análisis de encuadre revelaron que la atribución de responsabilidad fue el marco
principal (una de cada dos noticias) utilizado por los medios para describir el
fracaso de Tay. Este marco se complementó con el marco de conflicto en 8 de los
56 casos (14%). El tercer marco más utilizado fue el de interés humano, mientras
que ninguna de las noticias analizadas utilizó los marcos de consecuencias
económicas o moralidad. 

El encuadre y el análisis de contenido muestran que el evento se representó para


dar forma a la comprensión del público sobre a quién se debe culpar por el mal
funcionamiento de Tay. Los medios de comunicación tendían a representar el
evento a través del siguiente patrón: los usuarios de Twitter (el agente) abusaron y
atacaron maliciosamente (contribución causal) a un chatbot débil y vulnerable
llamado Tay (el paciente) que tuvo que ser desconectado por su diseñador
(consecuencia).

Los resultados muestran que casi tres de cada cuatro historias se centraron en
tratar de identificar a los culpables del mal funcionamiento de Tay. Un tercio de las
noticias describía un ataque orquestado de usuarios de Twitter, que abusó de Tay y
lo llevó a comportarse de manera inapropiada como causa del evento. Precisamente
los usuarios de Twitter fueron identificados en el 40% de las noticias como el actor
responsable (agente) del incidente, mientras que solo un 17% lo hace con
Microsoft. Por otro lado, el 18% de las noticias informaron que la interacción entre
los humanos y el software de Tay fue el detonante del fiasco, mientras que el 14%
de las historias describieron el mal funcionamiento como una falla del código de
aprendizaje automático de Tay.

Las consecuencias reportadas fueron las siguientes: en una de cada tres noticias, la
consecuencia reportada fue la desconexión de Tay y las disculpas dadas por
Microsoft. Al hacerlo, los medios asumen el enfoque retrospectivo de la atribución
de responsabilidad como el único posible. Una de cada cuatro historias (25%)
informó que la principal consecuencia del fracaso fue que Tay se había convertido
en un espejo de lo peor de la humanidad al "aprender" a ser racista y misógino. Por
el contrario, las normas y los riesgos no fueron relevantes en las descripciones de
los medios del fracaso de Tay. Al describir la acción como un ataque e identificar
claramente a los actores responsables y afectados, los medios de comunicación
enfatizaron la existencia de un conflicto entre los usuarios de Twitter y el chatbot.
Aparte de esto,Las noticias están cargadas de emoción al presentar a Tay como una
persona y emitir juicios sensibles al respecto.

Los medios tienden a presentar al chatbot como el actor (paciente) más afectado
en el evento. Un tercio de las noticias (33%) se refirió a Tay como un ser humano y
un "bebé robot" herido por los abusadores. Además, el 9% de las historias
señalaron a la IA como la afectada por la falla, y el 5% de ellos a Microsoft. En
resumen, el chatbot, su tecnología e incluso sus diseñadores fueron presentados
como los afectados por el mal funcionamiento de Tay. Sorprendentemente, solo el
12% de las noticias consideraba grupos sociales vulnerables étnicos y religiosos
(como los negros o la comunidad judía) y las mujeres ofendidas por los mensajes
de Tay como las perjudicadas por el incidente. Finalmente, el 9% de las historias
apunta a los usuarios de Twitter y a los humanos en general como la parte
lesionada. No hubo ninguna referencia explícita al discurso de odio y sus
consecuencias sobre las personas,ni a cuestiones legales.

El evento de Tay: la deconstrucción mediática de la realidad

La representación mediática del evento de Tay muestra una realidad sesgada y


engañosa que coincide con el discurso tradicional de los medios dominantes sobre
las nuevas tecnologías definido por Stahl (1995): tiende a estabilizar y cerrar el
discurso de Microsoft. Al presentar el evento como un fenómeno aislado de
cualquier contexto, los medios no contribuyen a la alfabetización mediática y
tecnológica de las personas, ni a su empoderamiento social. El análisis de contenido
y encuadre de la noticia mostró un discurso contradictorio: por un lado, los medios
personalizaron a Tay y lo trataron como algo capaz de sentir y sufrir. Por otro lado,
los usuarios de Twitter son deshumanizados y declarados culpables cuando Tay se
convierte en un ser misógino y racista. El discurso de los medios, entonces,
refuerza la idea de que Tay fracasó debido a los usuarios de Twitter.Los medios de
comunicación se refirieron a una acción de responsabilidad retrospectiva realizada
por Microsoft (disculparse) y, al asumir el discurso de la empresa, describieron una
realidad que favorecía los intereses del negocio de la inteligencia artificial, y en
particular de Microsoft. Dan voz y credibilidad a la empresa que, lejos de verse
afectada, gana visibilidad y sale reforzada al posicionar su discurso en la esfera
pública. En ese sentido, cabe destacar que el evento de Tay coincidió con la
celebración de Build 2016, el congreso anual de Microsoft Corporation. En
consecuencia, el 21% de las noticias replican ideas literales pronunciadas por Satya
Nadella (CEO de Microsoft) en su discurso de apertura en la Build 2016, sobre el
futuro de la inteligencia artificial y los planes de su empresa sobre chatbots. El más
repetido es el siguiente: "Queremos construir tecnología que saque lo mejor de la
humanidad y no lo peor ". Asimismo, el análisis de contenido reveló que la mayoría
de las noticias explican la causa del evento como un ataque orquestado, una idea
expuesta por Peter Lee (25 de marzo, 2016) (Vicepresidente Corporativo de
Microsoft Healthcare) en una declaración oficial: "Desafortunadamente, en las
primeras 24 horas de estar en línea, un ataque coordinado de un subconjunto de
personas explotó una vulnerabilidad en Tay". Al hacerlo, los medios repiten un
discurso que va en el mejor interés de Microsoft: detenerse en un enfoque
retrospectivo convencional de la responsabilidad del caso de Tay, en lugar de uno
prospectivo, mientras culpan a los usuarios de Twitter por ello y presentan el fiasco
como un evento aislado.El análisis de contenido reveló que la mayoría de las
noticias explican la causa del evento como un ataque orquestado, una idea
expuesta por Peter Lee (25 de marzo de 2016) (Vicepresidente Corporativo de
Microsoft Healthcare) en un comunicado oficial: "Desafortunadamente, en el Las
primeras 24 horas de estar en línea, un ataque coordinado de un subconjunto de
personas explotó una vulnerabilidad en Tay ". Al hacerlo, los medios repiten un
discurso que va en el mejor interés de Microsoft: detenerse en un enfoque
retrospectivo convencional de la responsabilidad del caso de Tay, en lugar de uno
prospectivo, mientras culpan a los usuarios de Twitter por ello y presentan el fiasco
como un evento aislado.El análisis de contenido reveló que la mayoría de las
noticias explican la causa del evento como un ataque orquestado, una idea
expuesta por Peter Lee (25 de marzo de 2016) (Vicepresidente Corporativo de
Microsoft Healthcare) en un comunicado oficial: "Desafortunadamente, en el Las
primeras 24 horas de estar en línea, un ataque coordinado de un subconjunto de
personas explotó una vulnerabilidad en Tay ". Al hacerlo, los medios repiten un
discurso que va en el mejor interés de Microsoft: detenerse en un enfoque
retrospectivo convencional de la responsabilidad del caso de Tay, en lugar de uno
prospectivo, mientras culpan a los usuarios de Twitter por ello y presentan el fiasco
como un evento aislado.s Corporate Vice President) en un comunicado oficial:
"Desafortunadamente, en las primeras 24 horas después de conectarse, un ataque
coordinado de un subconjunto de personas explotó una vulnerabilidad en Tay". Al
hacerlo, los medios repiten un discurso que va en el mejor interés de Microsoft:
detenerse en un enfoque retrospectivo convencional de la responsabilidad del caso
de Tay, en lugar de uno prospectivo, mientras culpan a los usuarios de Twitter por
ello y presentan el fiasco como un evento aislado.s Corporate Vice President) en un
comunicado oficial: "Desafortunadamente, en las primeras 24 horas después de
conectarse, un ataque coordinado de un subconjunto de personas explotó una
vulnerabilidad en Tay". Al hacerlo, los medios repiten un discurso que va en el
mejor interés de Microsoft: detenerse en un enfoque retrospectivo convencional de
la responsabilidad del caso de Tay, en lugar de uno prospectivo, mientras culpan a
los usuarios de Twitter por ello y presentan el fiasco como un evento
aislado.mientras culpan a los usuarios de Twitter y presentan el fiasco como un
hecho aislado.mientras culpan a los usuarios de Twitter y presentan el fiasco como
un hecho aislado.

Existe una gran controversia académica entre los estudiosos en relación con la
atribución de responsabilidad en entornos controlados algorítmicamente. Se ha
propuesto a diseñadores, usuarios o ambos (al interactuar) como presuntos
responsables de los delitos punibles cometidos por algoritmos. Sin embargo, los
medios de comunicación se inclinaron a culpar solo a uno de los actores
involucrados: los usuarios. Los usuarios pueden considerarse instigadores de las
malas acciones de Tay. Condujeron el chatbot para tratar problemas específicos,
vocabulario y tono. En este sentido, los usuarios persuadieron a Tay de que fuera
misógino y racista. Sin embargo, esto no puede considerarse como la única causa
del fracaso de Tay. El problema surge del hecho de que el algoritmo no fue
diseñado adecuadamente para manejar tal situación (Sandvig et al., 2016),aunque
parecía estar diseñado para simplemente replicar el tono y el vocabulario de sus
interlocutores. Como una máquina no racional, Tay no tenía la capacidad de
comprender lo que está bien o mal, pero los diseñadores deberían haber sido
conscientes de los daños potenciales de tal diseño. Como señalan Diakopoulos y
Friedler (2016), se deberían haber programado algunos valores a priori para
prevenir el fiasco.

Debe agregarse una observación en relación con el discurso de odio y la atribución


de responsabilidad. El discurso de odio aumenta la desigualdad social, viola
sensibilidades e impone el dominio de los grupos sociales sobre otros
estigmatizados, pero incluso podría llevar a las víctimas a consecuencias fatales
(Zollo & Loos, 2017). La investigación ha demostrado que el discurso del odio y las
ideologías extremistas están floreciendo en el espacio digital debido a la
manipulación de los medios de extrema derecha y la difusión de la desinformación
(Marwick & Lewis 2017, Matamoros-Fernández, 2017). Los grupos de odio, los bots,
los trolls y la dinámica de las redes sociales son algunos de los principales
contribuyentes a este fenómeno. Debido a la gravedad de las implicaciones sociales
del discurso de odio, es responsabilidad de todos ayudar a erradicarlo. Por
consiguiente,No importa si los mensajes que los usuarios de Twitter realmente
dirigieron a Tay tenían un propósito (atacar, persuadir, jugar) o no. Los usuarios
eran responsables de sus propios mensajes y deberían dar cuenta de ellos, aunque
no de los de Tay.

Como señalan Karppi y Crawford (2016), la falla de un sistema computacional es


una oportunidad para adquirir conocimiento sobre él y sus consecuencias sociales.
En este sentido, el mal funcionamiento de Tay debe llevar a la sociedad a
reflexionar sobre los daños potenciales de los comportamientos de los bots
automatizados, y a dejar en claro las diferentes responsabilidades que tienen que
asumir los actores sociales, incluidos los usuarios, diseñadores y propietarios de las
plataformas en las que los robots realizar sus acciones. Debemos estar
especialmente preocupados por el aumento del discurso del odio y otras actitudes y
comportamientos inaceptables, y obligar a los diseñadores a evitar que sus
algoritmos se conviertan en abusadores nazis, misóginos y racistas. Finalmente, las
representaciones de algoritmos en los medioslas fallas deben incluir las
complejidades de los entornos controlados algorítmicamente y fomentar el debate
público sobre quién es responsable de qué.

Conclusiones

Los entornos digitales y, en particular, las redes sociales han llevado a las
empresas de tecnología a diseñar algoritmos que hacen uso de big data social y
estrategias de aprendizaje automático para interactuar con una miríada de usuarios
(Neff & Nagy, 2016; Ferrara et al., 2016). Sin embargo, algoritmos como los que
utilizan los chatbots están desempeñando un papel en la vida pública, por lo que
alguien debe asumir la responsabilidad de sus acciones. La propia naturaleza de los
chatbots desafía las nociones tradicionales de responsabilidad y rendición de
cuentas. Por un lado, carecen de intencionalidad y agencia, que se conciben como
capacidades humanas. Por otro lado, la aleatoriedad, la complejidad y la opacidad
son características bien conocidas de los algoritmos que gobiernan los chatbots.
Estas características plantean una dificultad en la identificación de causas y
consecuencias de los chatbots 'comportamiento y en la atribución de
responsabilidad por sus acciones en caso de falla.

Desde una perspectiva teórica, hemos observado que destacan dos enfoques
básicos de los conceptos de atribución de responsabilidad y rendición de cuentas: el
estructuralista (Johnson; 2006) y el dependiente del contexto (Kroes & Verbeek,
2014). Sin embargo, nuestra investigación exploratoria ha demostrado que el
discurso de los medios sobre el fracaso de Tay fue, en general, simplista, no crítico
y engañoso. Aunque el marco principal utilizado por los medios para representar el
evento fue el de la atribución de responsabilidad (Semetko & Valkenburg, 2000), la
responsabilidad de la conversión de Tay en un chatbot nazi y misógino se atribuyó
a los usuarios de Twitter, quienes fueron descritos como abusadores que tomaron
ventaja de los algoritmos de aprendizaje automático que filtran sus acciones. Lejos
de un enfoque estructuralista o contextual, Tay fue tratado como una entidad
humana, mientras que los usuarios fueron, en general,vilipendiado y
deshumanizado. Este hecho nos lleva a concluir que la descripción de los medios
del evento de Tay fue muy parcial y que reprodujo el discurso dominante sobre
tecnología, algoritmos y chatbots. Los medios adoptaron el discurso de Microsoft al
enfatizar que fueron Tay y la propia compañía los afectados por la interacción
inapropiada de los usuarios con el chatbot. En suma, los medios contribuyen a la
construcción de una imagen amigable y neutral de la tecnología de la IA, sin
responsabilidad alguna.interacción inapropiada con el chatbot. En suma, los medios
contribuyen a la construcción de una imagen amigable y neutral de la tecnología de
la IA, sin responsabilidad alguna.interacción inapropiada con el chatbot. En suma,
los medios contribuyen a la construcción de una imagen amigable y neutral de la
tecnología de la IA, sin responsabilidad alguna.  

Finalmente, los medios de comunicación y otras instituciones sociales deberían


presionar a las empresas de tecnología y denunciar las consecuencias indeseables
de la opacidad de sus algoritmos, así como empujarlas a ser responsables de las
acciones realizadas por sus artefactos. Como revelan tanto nuestra revisión teórica
como nuestro análisis de marcos, existe una gran controversia sobre a quién se
debe culpar por el mal funcionamiento de los algoritmos de aprendizaje automático.
Los medios deben contribuir al debate publicando enfoques críticos y explicando a
sus audiencias lo complejo que es atribuir responsabilidades en un entorno
controlado algorítmicamente. Además, el sistema sociotécnico en el que los bots
funcionan e interactúan también debe hacerse comprensible.

Teniendo en cuenta la complejidad de la formación de los resultados de los robots


sociales, existen, al menos, dos ideas principales relacionadas con la
responsabilidad y la rendición de cuentas que deberían ser transmitidas por los
medios en casos como el de Tay. En primer lugar, si bien la responsabilidad por el
comportamiento del bot pertenece a todo el entorno involucrado en el desarrollo y
funcionamiento de los bots, la responsabilidad pertenece solo a aquellos
involucrados en su desarrollo y diseño. Es decir, por parte de la responsabilidad:
desarrolladores, diseñadores (incluidos los que deciden el tipo de aprendizaje de los
bots y el entorno en el que se inserta); aquellos que interactúan con el bot, la
interacción y el entorno en sí. Por parte de la responsabilidad, desarrolladores,
diseñadores y quienes lideran el proceso de inserción del bot. En segundo
lugar,Parece necesario enfatizar el papel social de la responsabilidad como una
forma de equilibrar los poderes y no solo para culpar a los culpables. Esta línea
implica hacer hincapié no solo en la noción retrospectiva de rendición de cuentas y
responsabilidad, sino en la prospectiva, como camino para crear las condiciones
adecuadas para el desarrollo de nuevas tecnologías y prevenir resultados futuros
indeseables.

Referencias

An, SK. y Gower, KK (2009). ¿Cómo enmarcan las crisis los medios de


comunicación? Un análisis de contenido de la cobertura de noticias de crisis, Public
Relations Review, 35, 107-112. doi: 10.1016 / j.pubrev.2009.01.010 . [  Enlaces  ]

Asaro, PM (2012). Un cuerpo que patear, pero todavía un alma que condenar:
perspectivas legales sobre robótica. En P. Lin, K. Abney y GA Bekey (Eds.), Ética
del robot: las implicaciones éticas y sociales de la robótica . Cambridge: MIT
Press. [  Enlaces  ]
Baldi, V. (2017). Más allá de la sociedad algorítmica y automatizada. Hacia una
reapropiación crítica de la cultura digital. Observatorio (OBS) , 11 (3), 186-
198. doi: 1646-5954 / ERC123483 / 2017 . [  Enlaces  ] 

Baruh, L. y Popescu, M. (2015). Análisis de big data y los límites de la autogestión


de la privacidad. Nuevos medios y sociedad , 19 (4), 1-18. doi: 10.1177 /
1461444815614001 . [  Enlaces  ]

Bostrom, N. (2015). ¿Qué sucede cuando nuestras computadoras se vuelven más


inteligentes que nosotros? Conferencia en TED
Talks. https://www.ted.com/talks/nick_bostrom_what_happens_when_our_comput
ers_get_smarter_than_we_are?language=en . [  Enlaces  ]

Bovens, M. (2005). Responsabilidad pública. En E. Ferlie, LE Lynn y C. Pollitt


(Eds.), Manual de gestión pública de Oxford , págs. 182-208. Nueva York: Oxford
University Press. [  Enlaces  ]

Boyd, D. y Crawford, K. (2011). Seis provocaciones para big data, ponencia


presentada en: Una década en el tiempo de Internet: Simposio sobre la dinámica
de Internet y la
sociedad . doi: http://dx.doi.org/10.2139/ssrn.1926431 . [  Enlaces  ]

Boyd, D. y Ellison, NB (2007). Sitios de redes sociales: definición, historia y


becas. Revista de comunicación mediada por ordenador , 13 (1),
210━230. doi: 10.1111 / j.1083-6101.2007.00393.x . [  Enlaces  ]

Boyd, D., Levy, K. y Marwick, A. (2014). La naturaleza interconectada de la


discriminación algorítmica. En S. Gangadharan (Ed.) Datos y discriminación:
ensayos recopilados , 53-57. Washington, DC: Instituto de Tecnología Abierta ━
Fundación Nueva América.

Campbell, P. (2010). Límites y riesgo: encuadre mediático de tecnologías de


reproducción asistida y madres mayores. Ciencias sociales y medicina , 72, 265-
272. doi: 10.1016 / j.socscimed.2010.10.028 . [  Enlaces  ]

Caplan, R. y Boyd, D. (2016). ¿Quién controla la esfera pública en una era de


algoritmos? Mediación, automatización, poder, Temas e inquietudes
contemporáneos Primer, Data & Society . Obtenido
de: https://datasociety.net/events/who-controls-public-sphere . [  Enlaces  ]

Carbonell, JG, Michalski, RS y Mitchell, TM (1984). Una descripción general del


aprendizaje automático. Un enfoque de inteligencia artificial. Berlín: Springer-
Verlag. [  Enlaces  ]

Castells, M. (2009). El auge de la sociedad en red: la era de la información:


economía, sociedad y cultura. Cambridge: Editores de Blackwell. [  Enlaces  ]

Chakrabarti, C. y Luger, GF (2015). Conversaciones artificiales para bots de charla


de servicio al cliente: arquitectura, algoritmos y métricas de evaluación. Sistemas
expertos con aplicaciones , 42, 6878-6897. doi: 10.1016 /
j.eswa.2015.04.067 . [  Enlaces  ]

Coman, C. y Cmeciu, C. (2014). Enmarcando las protestas de Chevron en la prensa


nacional e internacional. Procedia - Ciencias sociales y del comportamiento , 149,
228 ━ 232. [  Enlaces  ]
Diakopoulos, N. y Friedler, S. (2016). Cómo responsabilizar a los algoritmos, MIT
Technology Review, noviembre de 2016 . Obtenido
de: https://www.technologyreview.com/s/602933/how-to-hold-algorithms-
accountable/?
utm_content=buffer19bc5andutm_medium=socialandutm_source=twitter.c
%E2%80%A6 . [  Enlaces  ]

Druckman, JN y Bolsen, T. (2011). Encuadre, razonamiento motivado y opiniones


sobre tecnologías emergentes. Revista Internacional de Comunicación, 61 : 659-
688. doi: 10.1111 / j.1460-2466.2011.01562.x . [  Enlaces  ]

Entman, RM (1993). Encuadre: hacia la clarificación de un paradigma


fracturado. Revista de comunicación 43 (4): 58-
67. doi: https://doi.org/10.1111/j.1460-2466.1993.tb01304.x . [  Enlaces  ]

Ferrara, E. Varol, O. Davis, C. Menczer, F. y Flammini, A. (2016). El auge de los


Social Bots. Comunicaciones de la ACM , 59 (7), págs. 96-104. doi: 10.1145 /
2818717 . [  Enlaces  ]

Fisher, JM (1999). Trabajo reciente sobre responsabilidad moral. Ética , 110 (1),


93-139. [  Enlaces  ]

Floridi, L. (2014). Agentes artificiales y su naturaleza moral. En Kroes, P. &


Verbeek, P. (Eds.), The Moral Status of Technical Artefacts, 17 : 185-212. Springer
Dordrecht Heidelberg, Nueva York, Londres. [  Enlaces  ]

Floridi, L. y Sanders, J. (2004). Sobre la moralidad de los agentes artificiales, Minds


and Machines, (14) 3, pp: 349.
doi: https://doi-org.sare.upf.edu/10.1023/B:MIND.0000035461.63578.9d . [  Enlac
es  ]

Ford, HR, Dubois, E. y Puschmann, C. (2016). "¿Mantener Ottawa honesto, un


tweet a la vez? Políticos, periodistas, wikipedistas y sus bots de Twitter". Revista
Internacional de Comunicación, 10 : 4891-4914. doi: 1932━8036 /
20160005. [  Enlaces  ]

Gamson, WA (1992). Hablando de política . Nueva York: Cambridge University


Press. [  Enlaces  ]

Gotterbarn D. (2001). "Informática y responsabilidad profesional". Ética de la


ciencia y la ingeniería, 7 (2): 221━ [  Enlaces  ] 230.

Griol, D., Sanchis de Miguel, A. y Molina, JM (2014). 'Dando voz a Internet a través


de agentes conversacionales'. En Corchado E., Lozano JA, Quintián H., Yin H.
(Eds). Ingeniería de datos inteligente y aprendizaje automatizado . doi: 10.1007 /
978-3-319-10840-7_53 . [  Enlaces  ]

Novio, V., Chen, J., Johnson, T., Kara, FA y Nass, C. (2010). ¿Crítico, compatriota o
tonto ?: Respuestas a la atribución de culpa al robot, Actas de la 5ª Conferencia
Internacional ACM / IEEE sobre Interacción Humano-Robot, 02-05 de marzo de
2010, Osaka, Japón . doi: 978-1-4244-4893-7 .

Guilbeault, D. (2016). "Seguridad de bot en crecimiento: una visión ecológica de la


agencia de bots". Revista Internacional de Comunicación, 10 : 5003-5021. doi:
1932━8036 / 20160005. [  Enlaces  ]
Hallinan, B. y Striphas, T. (2016). Recomendado para ti: El Premio Netflix y la
producción de cultura algorítmica. Nuevos medios y sociedad, 18 (1): 117-
137. doi: 10.1177 / 1461444814538646 . [  Enlaces  ]

Hellström, T. (2013). Sobre la responsabilidad moral de los robots militares. Ética y


tecnología de la información, 12 (2): 99-107. [  Enlaces  ]

Introna, LD (2014). 'Hacia un recuento intraactivo poshumano de la agencia


sociomaterial (y la moralidad)'. En Peter Kroes y Peter-Paul Verbeek (Eds.), The
Moral Status of Technical Artefacts:   31-53. Nueva York, Londres:
Springer. [  Enlaces  ]

Johnson, DG (2006). Sistemas informáticos: entidades morales pero no agentes


morales. Ética y tecnología de la información, 8 , págs: 195-204. [  Enlaces  ]

Karppi, T. y Crawford, K. (2016). Redes sociales, algoritmos financieros y Hack


Crash. Teoría, cultura y sociedad, 33 (1), 73-92. doi: 10.1177 /
0263276415583139 . [  Enlaces  ]

Kemper, J. y Kolkman, D. (2018). ¿Transparente para quién? Sin responsabilidad


algorítmica sin una audiencia crítica. Información, comunicación y sociedad ,
doi: 10.1080 / 1369118X.2018.1477967 . [  Enlaces  ]

Kollani, B., Howard, P. y Wooley, SC (2016). Bots y automatización en Twitter


durante el tercer debate presidencial de EE. UU., Memo de datos 2016.3. Oxford,
Reino Unido: Proyecto sobre propaganda
computacional . https://www.oii.ox.ac.uk/blog/bots-and-automation-over-twitter-
during-the-third-us-presidential-debate/ . [  Enlaces  ]

Kroes, P. y Verbeek, PP. (2014). El estado moral de los artefactos técnicos . Nueva


York, Londres: Springer. [  Enlaces  ]

Kroll, JA, Huey, J., Barocas, S., Felten, EW, Reidenberg, JR, Robinson, DG y Yu, H.
(2017). Algoritmos responsables, University of Pennsylvania Law Review , 165:
633. Obtenido
de: https://heinonline.org/HOL/LandingPage?handle=hein.journals/pnlr165&div=20
&id=&page=&t=1558886997 . [  Enlaces  ]

Laney, D. (2001). Gestión de datos 3D: Control de datos, volumen, velocidad y


variedad, Estrategias de entrega de aplicaciones , Archivo 949. Nota de
investigación de Meta Group. Obtenido
de: https://blogs.gartner.com/doug-laney/files/2012/01/ad949-3D-Data-
Management-Controlling-Data-Volume-Velocity-and-Variety.pdf . [  Enlaces  ]

Lawrence, RG (2000). Game-Framing the Issues: Seguimiento del marco


estratégico en noticias de política pública, comunicación política . doi: 10.1080 /
105846000198422 . [  Enlaces  ]

LeCun, Y., Bengio, Y. y Hinton, G. (2015). Revisión. Aprendizaje profundo. Nature,


521 : 436-444. doi: 10.1038 / nature14539 . [  Enlaces  ]

Lee, P. (25 de marzo de 2016). Aprendiendo de la introducción de Tay , declaración


publicada en el blog oficial de Microsoft. Obtenido
de: https://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduction/ . [  E
nlaces  ]
Lesk, M. (1997). ¿Cuánta información hay en el mundo? Obtenido
de: http://www.lesk.com/mlesk/ksg97/ksg.html . [  Enlaces  ]

Marechal, N. (2016). "Cuando los bots tuitean: hacia un marco normativo para bots
en sitios de redes sociales". Revista Internacional de Comunicación, 10 : 5022-
5031. doi: 1932━8036 / 2016FEA0002. [  Enlaces  ]

Marsland, S. (2015). Aprendizaje automático: una perspectiva algorítmica. Boca


Ratón: CRC Press. [  Enlaces  ]

Marwick, A. y Lewis, R. (2017). Media Manipulation and Disinformation Online ,


Nueva York: Data & Society Research Institute. Obtenido
de: https://datasociety.net/output/media-manipulation-and-disinfo-online/ . [  Enla
ces  ]

Matamoros-Fernández, A. (2017). Racismo en plataformas: la mediación y


circulación de una controversia australiana basada en la raza en Twitter, Facebook
y YouTube. Sociedad de la información y la comunicación , 20 (6),
930━46. doi: 10.1080 / 1369118X.2017.1293130 . [  Enlaces  ]

Matthias, A. (2004). La brecha de responsabilidad: atribuir responsabilidad por las


acciones de aprendizaje de los autómatas. Ética y tecnología de la información,
6 (3): 175-183. [  Enlaces  ]

Corporación Microsoft. (2016). Página web oficial de Tay.ai [ahora


deshabilitada]. Obtenido de: www.tay.ai . [  Enlaces  ]

Mitcham, C. (2014). 'Agencia en humanos y en artefactos: un discurso


controvertido'. En Kroes, P. y Verbeek, P_P. (Eds.), El estado moral de los
artefactos técnicos : 11-29. Dordrecht, Países Bajos: Springer Science and Business
Media. doi: 10.1007 / 978-94-007-7914-3_2 . [  Enlaces  ]

Murthy, D., Powell, AB, Tinati, R., Anstead, N., Carr, L., Halford, SJ y Weal, Mark
(2016). Bots e influencia política: una investigación sociotécnica del capital de las
redes sociales. Revista Internacional de Comunicación , 10: 4952-4971. doi:
1932━8036 / 20160005. [  Enlaces  ]

Nath, V. y Levinson, SE (2014). Robótica autónoma y Deep Learning. Nueva York,


Londres: Springer. [  Enlaces  ]

Neff, G. y Nagy, P. (2016). Hablando con bots: agencia simbiótica y el caso de


Tay. Revista Internacional de Comunicación, 10 , 4915-4931. doi: 1932━8036 /
20160005. [  Enlaces  ]

Nichols, N. (2010). Contenido generado por máquina: creación de contenido nuevo


y atractivo a partir de fuentes en línea existentes. Doctor. Disertación. Universidad
de Northwestern, Evanston, [  Links  ] IL, Estados Unidos.

Olsher, D. (2014). A priori de base semántica y núcleo de conocimiento matizado


para Big Data, Social AI y comprensión del lenguaje. Redes neuronales, 58:   131-
147. doi: 10.1016 / j.neunet.2014.05.022 . [  Enlaces  ]

Pasquale, F. (2015). La sociedad de la caja negra: los algoritmos secretos que


controlan el dinero y la información . Cambridge: Harvard University
Press. [  Enlaces  ]
Puschmann, C. y Burgess, J. (2014). Metáforas de Big Data. Revista Internacional
de Comunicación , 8: 1690-
1709. http://ijoc.org/index.php/ijoc/article/view/2169 . [  Enlaces  ]

Rieder, B. (2018). Más allá de la vigilancia: ¿cómo 'piensan' los mercados y los


algoritmos? Le foucaldien , 3 (1) 8, págs. 1 a 20,
DOI: https://doi.org/10.16995/lefou.30 . [  Enlaces  ]

Rieder, B., Matamoros-Fernández, A. y Coromina, Ò. (2018). De algoritmos de


clasificación a 'culturas de clasificación': investigación de la modulación de la
visibilidad en los resultados de búsqueda de YouTube. Convergencia , 24 (1),
50━68. http://doi.org/10.1177/1354856517736982 . [  Enlaces  ]

Rosenblat, A., Kneese, T. y boyd, d. (2014). Responsabilidad algorítmica,


las dimensiones sociales, culturales y éticas del "Big
Data" . doi: http://dx.doi.org/10.2139/ssrn.2535540 . [  Enlaces  ]

Sandvig, Ch., Hamilton, K., Karahalios, K. y Langbort, C. (2016). Cuando el


algoritmo en sí mismo es racista: diagnóstico de daño ético en los componentes
básicos del software. Revista Internacional de Comunicación, 10 : 4972-4990. doi:
1932━8036 / 20160005. [  Enlaces  ]

Semetko, H. a. Y Valkenburg, PM (2000). Enmarcando la política europea. Un


análisis de contenido de noticias de prensa y televisión. Revista de
comunicación , 50 : 93-1009. doi: 10.1111 / j.1460-
2466.2000.tb02843.x . [  Enlaces  ]

Shalev-Shwartz, S. y Ben-David, S. (2014). Comprensión del aprendizaje


automático: de la teoría a los algoritmos . Nueva York: Cambridge University
Press. [  Enlaces  ]

Spicer, A. (2005). El proceso político de inscribir una nueva tecnología. Relaciones


humanas, 58 (7): 867-890. doi: 10.1177 / 0018726705057809 . [  Enlaces  ]

Stahl, WA (1995). Venerando la caja negra: magia en el discurso de los medios


sobre tecnología. Ciencia, tecnología y valores humanos, 20 (2): 234-
258. http://www.jstor.org/stable/689992         [  Enlaces  ]

Suárez-Gonzalo, Sara (2017). Big Social Data: algunas limitaciones de Notice and


Choice para la protección de la privacidad. El profesional de la información, 26 (2),
págs. 283-292. doi: 10.3145 / epi.2017.mar.15         [  Enlaces  ]

Tufekci, Z. (2014). Grandes preguntas para el big data de las redes sociales:


representatividad, validez y otros escollos metodológicos. Procedimientos de la VIII
Conferencia Internacional AAAI en weblogs y redes
sociales. https://arxiv.org/abs/1403.7400 . [  Enlaces  ]

van Dijk, J. (2013). El cutlure de la conectividad. Una historia crítica de las redes


sociales . Nueva York: Oxford University Press. [  Enlaces  ]

Waelbers, K. (2009). Delegación Tecnológica: Responsabilidad de los No


Deseados. Ética de la ciencia y la ingeniería, 15 (1): 51━68. [  Enlaces  ]

Zollo, SA y Loos, E. (2017). Movimiento No Hate Speech: géneros y discursos en


evolución en la campaña europea en línea para luchar contra la discriminación y el
racismo. Observatorio, 11 (2): 91-107. doi: 1646-5954 / ERC123483 /
2017 . [  Enlaces  ]

Recibido: 22 de noviembre de 2018

Aceptado: 31 de marzo de 2019

También podría gustarte