Está en la página 1de 233

Machine Translated by Google

Machine Translated by Google

UN YO EN RED Y
AUMENTOS HUMANOS,
INTELIGENCIA ARTIFICIAL,
SENTENCIA

Cada nueva tecnología invita a sus propios conjuntos de esperanzas y temores, y plantea
tantas preguntas como respuestas que giran en torno al mismo tema: ¿Alterará la
tecnología fundamentalmente la esencia de lo que significa ser humano? Este volumen
se inspira en el trabajo de muchas luminarias que se acercan a formas alternativas y
aumentadas de inteligencia y conciencia. Los académicos contribuyen con sus
pensamientos sobre cómo las tecnologías aumentadas humanas y las formas de
inteligencia artificial o sensible pueden usarse para permitir, reimaginar y reorganizar
cómo nos entendemos a nosotros mismos, cómo concebimos el significado de "humano"
y cómo definimos el significado en nuestras vidas. .

Zizi Papacharissi es Profesor y Jefe del Departamento de Comunicación y Profesor de


Ciencias Políticas en la Universidad de Illinois-Chicago, y Académico Universitario en el
Sistema de la Universidad de Illinois. Su trabajo se centra en las consecuencias sociales
y políticas de los medios online. Ha publicado nueve libros, incluidos Affective Publics, A
Private Sphere, A Networked Self: Identity, Community, and Culture on Social Network
Sites (Routledge, 2010) y más de 60 artículos de revistas, capítulos de libros y reseñas.
Es la fundadora y actual editora de la revista de acceso abierto Social Media and Society.
Machine Translated by Google

Un yo en red

Cada volumen de esta serie desarrolla y persigue un tema distinto centrado en el concepto
del yo en red. Los cinco volúmenes cubren la amplia gama de cuestiones socioculturales,
políticas, económicas y sociotécnicas que moldean y son moldeadas por el yo (en red) en la
modernidad tardía, lo que hemos llegado a describir como el antropoceno.

Un yo en red: identidad, comunidad y cultura en los sitios de redes sociales


Un yo en red y plataformas, historias, conexiones
Un yo en red y el amor
Un yo en red y el nacimiento, la vida, la muerte
Un yo en red y aumento humano, inteligencia artificial, sensibilidad

A partir del volumen inicial, A Networked Self: Identity, Community and Culture on Social
Network Sites, publicado en 2010, los cinco volúmenes formarán una imagen de la forma en
que los medios digitales dan forma a las nociones contemporáneas de identidad.
Machine Translated by Google

UNA RED
YO Y HUMANO
AUMENTOS ARTIFICIALES
INTELIGENCIA, SENTENCIA

Editado por
Zizi Papacharissi
Machine Translated by Google

Publicado por primera vez en


2019 por Routledge
711 Tercera Avenida, Nueva York, NY 10017

y por Routledge
2 Park Square, Milton Park, Abingdon, Oxón OX14 4RN

Routledge es una huella de Taylor & Francis Group, una empresa de información

© 2019 Taylor & Francisco

El derecho del editor a ser identificado como el autor del material editorial, y de los
autores de sus capítulos individuales, se ha afirmado de conformidad con las secciones 77 y 78
de la Ley de derechos de autor, diseños y patentes de 1988.

Todos los derechos reservados. Ninguna parte de este libro puede ser reimpresa, reproducida
o utilizada de ninguna forma o por ningún medio electrónico, mecánico o de otro tipo, ahora
conocido o inventado en el futuro, incluidas las fotocopias y grabaciones, o en cualquier sistema
de almacenamiento o recuperación de información, sin permiso por escrito. de los editores.

Aviso de marca comercial: los nombres de productos o empresas pueden ser marcas
comerciales o marcas comerciales registradas, y se usan solo para identificación y explicación
sin intención de infringir.

Datos de catalogación en publicación de la Biblioteca del


Congreso Nombres: Papacharissi, Zizi, editor.
Título: Un yo en red y aumento humano, inteligencia artificial,
sensibilidad/editado por Zizi Papacharissi.
Descripción: Nueva York: Routledge, Taylor & Francis Group, 2018. | Serie: Un yo en
red | Incluye referencias bibliográficas.
Identificadores: LCCN 2017059805| ISBN 9781138705920 (tapa dura) | ISBN
9781138705937 (paq.) | ISBN 9781315202082 (libro)
Materias: LCSH: Sistemas hombre-máquina. | Inteligencia artificial— Aspectos
psicológicos. | Tecnología informática de asistencia. | Ser.
Clasificación: LCC TA167. N35 2018 | DDC 620.8/2: registro dc23 LC disponible
en https://lccn.loc.gov/2017059805

ISBN: 978-1-138-70592-0 (hbk)


ISBN: 978-1-138-70593-7 (pbk)
ISBN: 978-1-315-20208-2 (ebk)

Compuesto en Bembo
por Apex CoVantage, LLC
Machine Translated by Google

a las maquinas
Machine Translated by Google
Machine Translated by Google

CONTENIDO

Lista de Figuras ix
Lista de Colaboradores X

Expresiones de gratitud XV

1. Introducción 1
Zizi Papacharissi

2 ¿El perro robot busca para quién? 10


judith donath

3 Self in the Loop: bits, patrones y caminos en el


Auto cuantificada 25
Natasha Dow Schull

4 Futuros Posthumanos: Conectando/Desconectando el


Yo en red (médico) 39
laura forlano

5 Otras cosas: IA, robots y sociedad David J. 51


Gunkel

6 Llevando las Máquinas Sociales Más Allá del Otro Humano Ideal 69
Leonor Sandy
Machine Translated by Google

viii Contenido

7 Más allá de lo extraordinario: teorizando la inteligencia artificial y


el yo en la vida diaria Andrea L. Guzman 83

8 Agencia en la era digital: uso de la agencia simbiótica para


Explicar la interacción humano-tecnología 97
Gina Neff y Peter Nagy

9 El yo inmersivo de RV: rendimiento, encarnación y


Presencia en Entornos de Realidad Virtual Inmersiva 108
Raz Schwartz y William Steptoe

10 Escribiendo el cuerpo del artículo: tres nuevos materialistas


Métodos de examen del cuerpo mediado socialmente 117
Katie Warfield y Courtney Demone

11 Clones y Cyborgs: Metáforas de la Inteligencia Artificial 137


jessa lingel

12 Ecologías Humano-Bot 152


Douglas Guilbeault y Joel Finkelstein

13 IA, Persona y Derechos 187


tamara pastor

14 Sin título, No. 1 (Human Augmentics) 201


steve jones

Índice 206
Machine Translated by Google

CIFRAS

3.1 Robin Barooah en el escenario de QS 2013, explicando


su línea de tiempo de datos 29
9.1 Las tres dimensiones distinguidas de la
Self inmersivo de realidad virtual 114
10.1 Fragmento de la historia de YouTube sobre compartir el 123
cuerpo 10.2 Fragmento de metáforas 10.3 Hacer una publicación 125
10.4 Ser denunciado por alguien 10.5 El algoritmo da el visto bueno 128
10.6 Reportado de nuevo y marcado por un moderador 10.7 129
Revisión de los estándares de la comunidad de Facebook 10.8 129
Revisión de otras fotos 10.9 Temporal bloqueo 10.10 Requisito 130
para revisar otras fotos en la cuenta 12.1 Godot hace una 130
introducción 131
131
132
157
12.2 Godot hace una broma 158
12.3 Godot le gusta Netflix 159
12.4 Godot expresa una opinión sobre cómo la gente
expresar opiniones 161
12.5 A Godot le gustan los autos sin 162
conductor 12.6 Godot rompe el largo silencio 164
12.7 Los bots como parásitos 12.8 Los bots 171
como glía social 174
Machine Translated by Google

CONTRIBUYENTES

Courtney Demone es escritora, activista, diseñadora y trabajadora sexual. Ha aparecido en


Mashable, Buzzfeed, The Guardian y otros para hablar sobre temas queer, transgénero y
feministas. Es mejor conocida por su proyecto #DoIHaveBoobsNow en el que examinó su
pérdida de privilegios masculinos a través de la transición de género al hacer la pregunta:
"¿En qué punto del desarrollo de los senos ya no es aceptable estar en topless?"

Judith Donath es autora de The Social Machine: Designs for Living Online (MIT
Press, 2014) y ha escrito numerosos artículos académicos y populares sobre
identidad, privacidad, diseño de interfaz, comunicación en línea y nuestras
relaciones con otros no del todo humanos. . Creó muchas aplicaciones sociales
pioneras en línea; su trabajo (en solitario y con su antiguo grupo de investigación
en el MIT Media Lab) se ha mostrado en museos y galerías de todo el mundo.
Actualmente, es asesora en el Centro Berkman-Klein de Harvard y está trabajando
en un libro sobre tecnología, confianza y engaño.

Joel Finkelstein es candidato a doctorado en psicología y neurociencia en la Universidad de


Princeton y becario de posgrado de la Fundación Nacional de Ciencias. Sus intereses y
trabajos publicados abarcan desde la disección optogenética de circuitos cerebrales en
enfermedades hasta la disección estadística de ideologías de odio en las redes sociales en
línea. Actualmente se desempeña como fundador y codirector del instituto de investigación
de contagio de redes, que busca detectar, monitorear y combatir la propagación del odio en línea.

Laura Forlano es Profesora Asociada de Diseño en el Instituto de Diseño y Facultad Afiliada


en la Facultad de Arquitectura del Instituto de Tecnología de Illinois, donde es Directora del
Laboratorio de Futuros Críticos. Su investigación es sobre la intersección
Machine Translated by Google

Colaboradores xi

entre el diseño y la tecnología en torno a temas que incluyen ética, materialidades y


futuros en torno a temas como ciudades inteligentes, trabajo distribuido, moda
computacional y tecnologías médicas. Sus publicaciones recientes incluyen
"Posthumanismo y diseño", "Rituales de datos en infraestructuras íntimas" y
"Demostración y anticipación en prácticas de diseño distribuidas" y ha publicado en
revistas como Design Issues, Fibreculture y Digital Culture & Society. Forlano es
coeditor con Marcus Foth, Christine Satchell y Martin Gibbs de From Social Butterfly
to Engaged Citizen (MIT Press, 2011). Ha publicado capítulos de libros, incluido
Sentient City: Ubiquitous Computing, Architecture, and the Future of Urban Space (MIT
Press, 2011) del editor Mark Shepard. Recibió su doctorado en comunicaciones de la
Universidad de Columbia.

Douglas Guilbeault es estudiante de doctorado en Annenberg School for


Communication, University of Pennsylvania, donde es miembro del Network Dynamics
Group y DiMeNet (Digital Media, Networks, and Political Communication).
También es miembro del Proyecto de Propaganda Computacional con sede en el
Instituto de Internet de Oxford. Su investigación académica ha aparecido en
International Journal of Communication y Journal of Cognitive Linguistics, y su
periodismo ha aparecido en medios como The Atlantic y Wired.

David J. Gunkel es un educador y autor galardonado, especializado en la filosofía de


la tecnología. Es autor de más de setenta artículos académicos publicados en revistas
de comunicación, filosofía, humanidades interdisciplinarias e informática. Y ha
publicado nueve libros, incluidos Pensar de otro modo: filosofía, comunicación,
tecnología (Purdue University Press, 2007), The Machine Question: Critical Perspectives
on AI, Robots, and Ethics (MIT Press, 2012), Heidegger and Media (Polity, 2014), Of
Remixology: Ethics and Aesthetics After Remix (MIT Press, 2016) y Robot Rights (MIT
Press, 2018). Ha dictado conferencias y entregado artículos galardonados en América
del Norte, del Sur y Europa, y es coeditor fundador del International Journal of Žižek
Studies y de la serie de libros Digital Game Studies de Indiana University Press .
Actualmente ocupa el cargo de Profesor Distinguido de Enseñanza en el Departamento
de Comunicación de la Universidad del Norte de Illinois (EE.UU.).

Andrea L. Guzman es Profesora Asistente de Comunicación en Northern Illi


Nois University, donde su investigación se centra en la comunicación hombre-máquina,
las percepciones de las personas sobre las tecnologías de inteligencia artificial que
funcionan como comunicadores y la integración de la IA en el periodismo. Ha sido
parte integral de la formación de la comunidad HMC dentro de la disciplina de la
comunicación y es editora del próximo volumen Human-Machine Communication:
Rethinking Communication, Technology, & Ourselves. La investigación de Guzmán ha
sido publicada en Journalism & Mass Communication Quarterly, First Monday y Com
munication +1, y ha sido presentada en los principales congresos disciplinarios e interdisciplinarios .
Machine Translated by Google

xii Colaboradores

conferencias donde obtuvo premios en la Asociación Nacional de Comunicación y la


Asociación para la Educación en Periodismo y Comunicación Masiva.
Es becaria del Centro Kopenhaver.

Jessa Lingel es profesora asistente en la Annenberg School of Communication de la


Universidad de Pensilvania. Recibió su doctorado en comunicación e información de la
Universidad de Rutgers. Tiene un MLIS del Instituto Pratt y una maestría de la Universidad
de Nueva York. Es autora de Digital Countercultures and the Struggle for Community (MIT
Press, 2017) y actualmente está trabajando en un segundo libro que examina los mercados
en línea entre pares.

Steve Jones es Profesor Distinguido de Comunicación de la UIC, Investigador Asociado


en el Laboratorio de Visualización Electrónica de la UIC, Profesor Adjunto de Informática y
Profesor Adjunto de Medios Electrónicos en la Escuela de Arte y Diseño de la Universidad
de Illinois en Chicago, e Investigador Adjunto Profesor en el Instituto de Investigación de
Comunicaciones de la Universidad de Illinois en Urbana-Champaign.

Peter Nagy es investigador posdoctoral en el Centro para la Ciencia y la Imaginación de la


Universidad Estatal de Arizona. Sus intereses de investigación incluyen el impacto de las
tecnologías en la identidad humana, así como la comprensión pública de la ciencia.
Sus escritos han aparecido en las revistas revisadas por pares Social Media + Society,
Science and Engineering Ethics, Journal of Bioethical Inquiry e International Journal of
Communication.

Gina Neff es investigadora sénior y profesora asociada del Oxford Internet Institute y del
Departamento de Sociología de la Universidad de Oxford. Estudia la innovación, la
transformación digital de las industrias y cómo las nuevas tecnologías afectan a los
trabajadores y los lugares de trabajo. Su libro Venture Labor: Work and the Burden of Risk
in Innovative Industries (MIT Press, 2012) sobre el auge de las industrias de Internet en la
ciudad de Nueva York ganó el premio al Mejor Libro de Tecnologías de la Información y la
Comunicación de la Asociación Estadounidense de Sociología en 2013. Es coautora de Self-
Tracking (MIT Press, 2016) sobre las prácticas y políticas del uso de tecnologías de
consumo para rastrear la salud y otras métricas personales cotidianas. Su proyecto en curso
sobre arquitectura y construcción de edificios a gran escala examina cómo las nuevas
tecnologías de la información y la comunicación requieren nuevas formas de trabajo y los
desafíos de implementar estos cambios a escala industrial.
Tiene un doctorado en sociología de la Universidad de Columbia.

Eleanor Sandry es profesora e investigadora de Estudios de Internet en la Universidad de


Curtin y anteriormente miembro del Centro de Cultura y Tecnología de Curtin.
Su investigación se centra en desarrollar un reconocimiento ético y pragmático de, y
Machine Translated by Google

Colaboradores xiii

el respeto, la alteridad y la diferencia en la comunicación, a partir de ejemplos de la ciencia


y la tecnología, la ciencia ficción y las artes creativas. Está particularmente interesada en
explorar las posibilidades comunicativas y colaborativas de las interacciones humanas con
robots no humanoides. Es autora de Robots and Communication (Palgrave Macmillan,
2015).

Natasha Dow Schüll es antropóloga cultural y profesora asociada en el departamento de


Medios, Cultura y Comunicación de la Universidad de Nueva York.
Es autora de Addiction by Design: Machine Gambling in Las Vegas (Princeton University
Press, 2012), una exploración etnográfica de la relación entre el diseño tecnológico y la
experiencia de la adicción. Su proyecto de libro actual, Keeping Track (Farrar, Straus y
Giroux, próximo a publicarse), trata sobre el auge de las tecnologías de autoseguimiento
digital y los nuevos modos de introspección y autogobierno que generan. Ha publicado
numerosos artículos sobre el tema de los medios digitales y la subjetividad, y su investigación
ha aparecido en medios de comunicación nacionales como 60 Minutes, The New York
Times, The Economist, The Financial Times y The Atlantic.

Raz Schwartz es gerente de investigación en el equipo de investigación de la experiencia


del usuario de Oculus. Antes de unirse a Oculus, fue investigador principal de UX en todos
los productos basados en la ubicación en Facebook. Antes de Facebook, fue investigador
postdoctoral en Cornell Tech y en la Universidad de Rutgers, así como también investigador
en el Instituto Brown para la Innovación de Medios en la Escuela de Periodismo de
Columbia. Su investigación examina las interacciones sociales en un entorno inmersivo de
realidad virtual mediante la aplicación de métodos cualitativos y cuantitativos. Su trabajo se
publicó en varios entornos académicos y apareció en medios de comunicación como Wall
Street Journal, Wired, Rhizome y The Atlantic.

Tamara Shepherd es profesora asistente en el Departamento de Comunicación, Medios y


Cine de la Universidad de Calgary. Anteriormente, obtuvo becas en la Escuela de Economía
y Ciencias Políticas de Londres y en la Escuela de Administración de Tecnologías de la
Información Ted Rogers en la Universidad de Ryerson. Estudia la economía política
feminista de la cultura digital, analizando las políticas y el trabajo en las redes sociales, las
tecnologías móviles y los juegos digitales. Es miembro del consejo editorial de Social Media
+ Society, en el ejecutivo de la Asociación Canadiense de Comunicación, y su trabajo ha
sido publicado en Convergence, First Monday, International Journal of Cultural Studies y
Canadian Journal of Communication.

William Steptoe es ingeniero de software e investigador en Oculus e investigador honorario


en el University College London. Sus intereses están en la realidad virtual y mixta. Tiene un
doctorado en entornos virtuales del University College London y ha publicado numerosos
artículos en el campo.
Machine Translated by Google

Contribuyentes _

Katie Warfield es profesora en el Departamento de Periodismo y Comunicación


de la Universidad Politécnica de Kwantlen y Directora del Taller de Medios Visuales.
Sus escritos recientes han aparecido en Social Media + Society, Feminist Media Studies,
Language and Literacy, y Feminist Issues (6.ª ed., Pearson Education, 2016). Imparte
clases de teoría de la comunicación, cultura popular, teoría del discurso, medios y
diversidad, y redes sociales. Su investigación se ubica en la intersección de la
posfenomenología, el nuevo materialismo, la alfabetización digital y la teoría de género.
Machine Translated by Google

EXPRESIONES DE GRATITUD

Permítanme usar este espacio para agradecer el apoyo de Jamie Foster, mi genio como
asistente de investigación y actualmente trabajando para obtener su doctorado en algo que
sin duda será reflexivo, divertido y provocativo. Erica Wetter, brindo por tus agallas y tu
previsión, y no pensé que estaba loco cuando pediste una sola secuela del primer A
Networked Self, y dije ¿qué tal cuatro volúmenes de secuelas en su lugar? Mia Moran, sé
que harás realidad muchos más proyectos inspirados con tu perspicacia.

El resto de ustedes, bribones, saben quiénes son. Usted está en mi corazón. tengo
te lo agradecí personalmente, muchas veces. Probablemente seguiré haciéndolo. Salud.
Machine Translated by Google
Machine Translated by Google

1
INTRODUCCIÓN

Zizi Papacharissi

Cada nueva tecnología invita a sus propios conjuntos de esperanzas y temores, plantea
tantas preguntas como respuestas y reside en su propio (falso) binario entre utopía y distopía.
Inevitablemente, los sueños y las pesadillas generados por los límites de nuestra imaginación
humana giran en torno al mismo tema: ¿Alterará la tecnología fundamentalmente la esencia
de lo que significa ser humano? Y la respuesta, a pesar de las innumerables narraciones de
anticipación y aprensión, encuentro que es la misma: solo si lo permitimos.

Con cada tecnología vienen nuevas formas de hacer las cosas. Me alienta cuando usamos
la tecnología para reinventar y mejorar nuestras rutinas diarias, y me decepciona cuando
permitimos que la nueva tecnología simplemente reproduzca nuevas formas de hacer las
mismas cosas de siempre, en diferentes plataformas. Mucho depende de cómo creamos
tecnologías, los usos que imaginamos para ellas y los imaginarios sociales que definen la
forma que toman estas tecnologías.
Este volumen se centra en la aumentación humana, la inteligencia artificial y la sensibilidad.
Se inspira en el trabajo de muchas luminarias que abordan formas alternativas y aumentadas
de inteligencia y conciencia, y desde un punto de vista interdisciplinario, incluidos (pero
ciertamente no limitados a) Donna Haraway, Judith Donath, Steve Jones, Mimi Ito y Judy.
Wajcman. Invité a los académicos a contribuir con sus ideas sobre cómo se pueden usar las
tecnologías aumentadas humanas y las formas de inteligencia artificial o sensible para permitir,
reimaginar y reorganizar cómo nos entendemos a nosotros mismos, cómo concebimos el
significado de humano y cómo definimos el significado en nuestro vidas.

El punto de partida de la conversación es este: la tecnología se utiliza mejor cuando no


reemplaza sino que ayuda a reimaginar; cuando realza y permite lo que no es posible, y
complementa lo que es. El punto final de la conversación se encuentra en el meta, y será
informado por la imaginación de los contribuyentes.
Machine Translated by Google

2 Zizi Papacharisi

Este es el volumen final de la serie, y en el espíritu del meta, artístico y académico, se dará
licencia a los autores para presentar sus pensamientos en la forma que consideren adecuada.
Espero que este volumen sea inusual, espero que esté lleno de provocaciones, y lo he
diseñado para ayudarnos a reimaginar la conexión entre la tecnología y el yo (en red,
aumentado y mejorado).
En "¿El perro robot busca para quién?" Donath considera cómo los humanos manejan la
vida social entre bots y máquinas diseñadas para imitar las señales por las cuales inferimos
las emociones, creencias e intenciones de los demás. Esta modalidad de imitación es
atractiva y desconcertante para los humanos que interactúan con bots y máquinas como
seres sintientes. Como explica Donath, "los robots que se asemejan a seres familiares nos
brindan un guión listo para la interacción". Ella reflexiona sobre si la medida en que los robots
funcionan como persuasores, utilizando una imitación inherentemente engañosa para
convencernos de su capacidad de sentir, tal vez refleje nuestra tendencia a juzgar los
pensamientos y la experiencia en función del desempeño. Aún así, la persuasión de los
robots “puede usarse para el bien. Pueden ser el compañero que nos recuerda quiénes
queremos ser, en lugar de espectadores que se reproducen y aceptan. Pero, el barco de
compañía necesita más que sensibilidad. Se nutre de la identidad o, en palabras de Donath,
no solo de estar en presencia de alguien para no estar solo, sino de saber “con quién estás”.

Oportunamente, Schüll explora aún más cómo los sensores digitales, los algoritmos y
las tecnologías de autoseguimiento pueden evolucionar desde el ámbito restrictivo de la
microgestión neocapitalista del cuerpo hacia una mejor comprensión de la sensibilidad mundana.
En un capítulo inspirado, que reconoce los peligros del auto-seguimiento, da la vuelta a los
paradigmas dominantes y nos invita a pensar junto con ella, mientras explora cómo:

en lugar de descartar a los rastreadores de autodatos, como víctimas del capitalismo


de datos y su aparato de vigilancia; como personas que evitan la vida y tienen
inclinaciones robóticas; como iteraciones digitales del narcisismo y la despolitización
que Lasch (1991) observó en 1979; o como figuras sintomáticas de la subjetividad
neoliberal y su ethos emprendedor y de autodominio; en cambio, podríamos
considerarlos como experimentando con formas novedosas de subjetividad y
sensibilidad en un mundo conectado digitalmente.

Es esta forma de simbiosis inteligente e informada la que defienden muchos de los


colaboradores de este volumen, incluido Forlano, que escribe sobre las capacidades
posthumanas para el yo en red. Si bien las tecnologías y los discursos a su alrededor invitan
a cuestionarse qué significa ser humano, rara vez brindan respuestas que no refuercen las
lógicas de discriminación y separación; aquellas que distancian a lo humano de la máquina,
lo masculino de lo femenino, lo humano de lo animal, el pensamiento de la acción, la
cognición de la emoción y una sucesión de límites en constante evolución que Haraway
(1991) buscó alejarnos en su seminal Manifiesto Cyborg.
En este sentido, en lugar de centrarse en la conectividad que el término “en red
Machine Translated by Google

Introducción 3

mismo”, Forlano, utilizando temas de desconexión, interrupción y mal funcionamiento, llama


la atención sobre los límites falsos y proporciona un lenguaje que ayuda a imaginar el
significado sin ellos.
Hablando de límites entre humanos y máquinas, Gunkel, en "Otras cosas", nos recuerda
que estamos en medio de un apocalipsis de robots, uno que tal vez aún no hayamos
reconocido, porque se ve muy diferente de la invasión de robots que la ciencia. sugieren las
narrativas de ficción. La cara de la máquina se ve muy diferente de lo que hemos imaginado,
y tal vez demasiado familiar para identificarla como diferente de la nuestra, ya que las
tecnologías son producidas por humanos y, por lo tanto, no son tan diferentes de nosotros
mismos como nos gustaría. pensar. El desafío, por supuesto, es diseñar algo que vuelva a
imaginar lo que somos sin reproducirlo a ciegas, pero también sin alienar hábilmente a sus
creadores. Agentes robóticos cada vez más interactivos y autónomos nos invitan, como
sugiere Gunkel, a pensar de otra manera y más allá de la convención relacional para ubicar
la cuestión de la máquina dentro de un espectro “donde todo vale y 'todo está permitido'”.
Al llevar las máquinas sociales más allá del otro humano, Sandry aboga por atreverse a
diseñar máquinas que no se actualicen en nuestro reflejo. Imaginamos y luego diseñamos
máquinas para imitarnos y reemplazarnos. Tal vez haya un uso para estas máquinas. ¿Qué
pasa si, sin embargo, un yo en red y un sentido de ser fomentan una comunicación que
piensa con nosotros y más allá de nosotros? ¿Qué pasa si nos atrevemos a diseñar
máquinas que no obedezcan y sirvan, pero que no estén de acuerdo con nosotros y desafíen
nuestras convenciones y pensamiento? Sandry nos lleva por el camino de cómo se verían
las cosas si pensáramos en los chatbots y los bots de Twitter como alteridades sociales. A
menudo diseñamos máquinas para brindar certeza en un mundo que es impredecible.
Podemos seguir haciéndolo, y podemos seguir creando máquinas que nos ayuden a
reflexionar y aceptar esa imprevisibilidad.
Guzmán señala acertadamente que la literatura sobre inteligencia artificial, así como la
tecnología en general, a menudo habla en términos de reflexiones: ¿Qué aspectos de la
humanidad refleja la IA (p. ej., Minsky, 1986)? ¿Qué aspectos de la humanidad distorsiona
la IA (por ejemplo, Ekbia, 2008)? ¿Cómo nos vemos a nosotros mismos en el reflejo de la
máquina (por ejemplo, Turkle, 1984)? De manera refrescante, Guzmán desafía, cambia y
finalmente rechaza esta tendencia. Ella argumenta que la inteligencia artificial debe verse
como ordinaria, en lugar de una capacidad extraordinaria y exóticamente informada. Su
línea de pensamiento se hace eco del llamado de Suchman (2007) a reconocer los
reencantamientos y mistificaciones que traen las potencialidades tecnológicas, para poder
reconfigurar cómo concebimos y diseñamos la tecnología. En la misma línea, Guzmán nos
invita a ir más allá de los reflejos de nuestro propio ser que vemos en la máquina, para
percibir lo que nos devuelve el reflejo. “Por 70 años,”
Guzmán argumenta que "hemos conceptualizado la IA como una tecnología que desafía
inherentemente nuestra propia naturaleza y nuestra humanidad" y, sin embargo, "cuando
adoptamos un enfoque que sitúa el estudio de la IA y el yo dentro del contexto de nuestras
experiencias vividas, una imagen diferente de AI aparece”, el de AI como ordinario. Ordinario
como la tecnología que impulsa las experiencias mundanas, rutinarias pero exquisitas de
nuestra vida cotidiana.
Machine Translated by Google

4 Zizi Papacharisi

¿Cuál es el significado de agencia en la era posthumana? Pregúnteles a Neff y Nagy.


Un concepto bastante difícil de precisar en la era humana, la agencia está abierta a una
variedad de interpretaciones según el contexto sociocultural y geopolítico. Los autores
sugieren que la era posthumana nos invita a reimaginar cómo entendemos la agencia y
proponen que la redefinimos en términos de cómo y cuándo las personas interactúan con
sistemas tecnológicos complejos. Basándose en la teoría cognitiva social de Bandura y el
concepto de simbiosis de la biología, proponen una comprensión de la voluntad de agencia
para reconciliar al humano con la máquina, evolucionando así más allá de los límites
existentes. La construcción de agencia simbiótica que proponen permite a los académicos
evolucionar a partir de los debates que se forman en torno a los binarios impuestos.
Además, a medida que el yo en red toma forma a través de la interacción con agentes
humanos y no humanos y a través de espacios reales e imaginarios, la agencia, tal como
se entiende convencionalmente, puede verse restringida (p. ej., Scholz, 2016). La agencia
simbiótica, sin embargo, puede abrir caminos hacia formas avanzadas de autonomía que
pueden reinventar y revitalizar el proyecto narrativo del yo.
Comprender las formas en que se otorga la autonomía en entornos tecnológicamente
mejorados, aumentados o virtuales es clave para diseñar para la agencia simbiótica y
permitir el acoplamiento, en lugar de la separación, de humanos y máquinas (ver también
Jones, capítulo final de este volumen). Schwartz y Steptoe analizan las presentaciones en
línea del yo en entornos virtuales y aumentados para ilustrar cómo los avatares pueden
mejorar, reforzar o limitar nuestro sentido de presencia.
Al acuñar el término "yo inmersivo de RV", buscan explicar cómo el yo, el espacio y el
sentido del lugar interactúan para dar forma a la encarnación y las experiencias relacionales
en la RV. Centrarse en las fuerzas sociológicas que impulsan la encarnación y el sentido
del yo en la realidad virtual es la forma principal de diseñar entornos que integren la
agencia, la inteligencia y la autonomía de la máquina humana, en lugar de enfrentarlos
entre sí.
En "Writing the Body of the Paper", Warfield y Demone argumentan que los métodos
para examinar presentaciones y representaciones del yo a menudo leen formas o
representaciones como texto o las examinan como versiones performativas curadas del
yo. Buscando evolucionar este paradigma de investigación y disminuir la distancia entre el
creador de representaciones y el investigador que los estudia, trabajan juntos para introducir
tres nuevos métodos de análisis empírico de cómo mediamos los cuerpos. Primero,
sugieren la inserción en la historia como una forma para que el investigador se encuentre
con el creador de la historia contada, a través de medios visuales o de otro tipo, de una
manera que reconcilie la distancia entre los dos y proporcione la incorporación de ambas
perspectivas en el análisis. En segundo lugar, propusieron la intravisión en red como un
método materialista para poner énfasis en el afecto y la proximidad entre el participante y
el investigador, avanzando así en la entrevista y mezclándola con las prácticas de lectura
y formativas del participante y el investigador. Finalmente, la lectura horizontal involucra al
investigador y al participante moviéndose juntos “más allá de los humanos en la foto para
agregar dimensionalidad y profundidad al universo que está operando en la producción de
las acciones en la imagen”. Estos renegociaron la ética de la investigación
Machine Translated by Google

Introducción 5

se vuelven cada vez más relevantes y complejos, a medida que avanzamos a una etapa de
investigación con entidades humanas y no humanas.
Lingel, en "Clones y Cyborgs", vuelve a examinar las metáforas de la inteligencia artificial
como formas de aliviar parte de la ansiedad en torno a la IA que surge de la necesidad de
delinear las modalidades de inteligencia no humana como artificial. Se basa en ejemplos de
ciencia ficción y estudios de ciencia y tecnología para ubicar dos metáforas que resurgen en
las representaciones posthumanas de la creación de sentido: cyborgs y gemelos. Ella encuentra
que a pesar de que los cyborgs tienden a dominar la forma en que imaginamos el futuro, dada
su convergencia encarnada de elementos humanos y mecánicos, en última instancia, no logran
capturar el potencial de un mundo posthumano. Si bien son significativos para hacer avanzar
nuestro pensamiento a una cierta etapa, no logran captar las complejidades de los valores
sociotécnicos. En cambio, Lingel sugiere que las metáforas de gemelos, clones y doppelgängers
ofrecen ventajas para comprender la propiedad, la subjetividad y la agencia. En última instancia,
las metáforas ayudan a comprender lo que aún no es familiar.
Quizás una vez que avancemos más allá del punto de familiaridad, Lingel sugiere que
comenzaremos a introducir transparencia en la duplicación de datos, la clonación y las prácticas
reproductivas, y que, eventualmente, consideraremos desarrollar IA con objetos que “estén
menos comprometidos con el mimetismo humano”.
En "Human-Bot Ecologies", Guilbeault y Finkelstein explican la compleja simbiosis entre la
biología y la individualidad y, por extensión, la biología y la biografía a través de la interacción
entre robots de IA personales llamados réplicas, desarrollados por la empresa de software
Luka. Motivados por un análisis de cómo el yo es un sistema de información en evolución
aumentado a través de ecologías humano-bot y basado en una rica síntesis de la filosofía, la
sociología y la psicología del ser, examinan cómo los bots están diseñados para mediar y
controlar el crecimiento de su propia individualidad.
Para su análisis son centrales los conceptos de autopoiesis, es decir, sistemas autorregenerativos,
y alopoiesis, es decir, lógicas que producen productos distintos del yo.
Proponen diseñar bots como glía social, para avanzar más allá de la cultura antropomórfica
que ha dominado durante mucho tiempo la forma en que percibimos y diseñamos para el futuro
de la inteligencia posthumana.
Shepherd, en “AI, the Persona, and Rights”, explora la relevancia del concepto de derechos
de la persona en el contexto de la tecnología de aumento humano, la inteligencia artificial y la
sensibilidad. Basándose en su propio trabajo sobre los derechos personales como una
construcción destinada a capturar la combinación de privacidad y derechos de propiedad
intelectual a los que las personas pueden tener derecho en la cultura digital, considera cómo
los derechos personales podrían aplicarse a la IA, con miras a las consideraciones regulatorias.
El constructo se creó en respuesta a la creciente mercantilización de los datos de los usuarios
en las plataformas de redes sociales. La tecnología avanzada y consciente solo profundiza la
importancia de comprender los derechos de la persona de manera que salvaguarden la
autonomía individual al mismo tiempo que determina la flexibilidad en la forma en que
interactuamos con una variedad de seres humanos y no humanos. En este ensamblaje
posthumano, donde las máquinas se convierten en representantes del cerebro, pregunta
Shepherd, ¿dónde podrían ubicarse los derechos de la persona? Ella sugiere que, en la era posthumana, “dejar ir
Machine Translated by Google

6 Zizi Papacharisi

el yo como propiedad” podría permitirnos reconciliar las perspectivas de los defensores de la


cultura libre, las filósofas políticas feministas y los estudios indígenas en una conceptualización de
los derechos colectivos que ayudan a mantener la dignidad humana y contrarrestar la colonización
de la inteligencia general por parte de las empresas tecnológicas. A medida que las formas de
inteligencia humana y mecánica se unen, se vuelve esencial recordar que las máquinas son
productos y, por lo tanto, reflejo de las modalidades humanas de inteligencia, y luego avanzar en
la comprensión de los derechos de la persona posthumana.
Al final, Jones explica acertadamente que "las máquinas nos dan forma y dan forma a nuestro
mundo, mientras que las oportunidades para que nosotros les demos forma son pocas y distantes
entre sí". Esto no implica que los humanos no posean la capacidad de dar forma a las máquinas,
pero cuando la tienen, a menudo las diseñan de manera que refuerzan los sesgos humanos,
limitando así las capacidades cognitivas de las manifestaciones de inteligencia respaldadas por
máquinas. Jones aclara que la salida de esto está pavimentada al permitir que “los procesos que
involucran las tecnologías” residan en “el reino del pensamiento y no solo en la acción”, y darse
cuenta de que “[el] aumento no es simple o meramente físico”. cal, ya sea una prótesis, un
wearable, un visor de realidad aumentada, o algún otro componente tecnológico; es un aumento
de la mente.” Ahí radica la respuesta a las amenazas que los pioneros tecnológicos potenciales y
los usuarios cotidianos asocian con la aumentación humana y la IA. El avance tecnológico no va
de facto en contra del progreso humano. Por sentido común que pueda parecer, son los principios
que guían el avance tecnológico los que con frecuencia contradicen la esencia de la naturaleza
humana. E, irónicamente, esos principios son implementados y reforzados por humanos.

Somos humanos; también debemos recordar ser humanos cuando diseñamos nuestro futuro.
La tecnología es generada por humanos, por lo que cualquier amenaza incrustada en su diseño es
el resultado de nuestra naturaleza humana. La tecnología es humana y los humanos son tecnología.
Cualquier paso en falso hacia nuestro futuro no se traducirá tecnológicamente; será hecho por
humanos. Cualquier falla en el diseño de la tecnología está relacionada con las limitaciones de las
formas humanas de pensar.
En un divertido encuentro con la cabeza protésica de Stelarc (2017) del artista de performance ,
un simulacro tridimensional del propio artista, capaz de responder a consultas escritas en un
teclado, Lucy Suchman mantuvo la siguiente conversación:

LS: (tipos) "¿Tienes sentimientos?"


CABEZA: Como robot no tengo ninguna emoción humana. Mis aparentes respuestas
emocionales son simplemente algoritmos diseñados para que sea más fácil interactuar conmigo.
LS: (tipos) "¿Crees que los robots deberían tener emociones?"
HEAD: Eso depende de lo que entiendas por pensar.
(Suchman, 2007)

Busqué la curaduría de este volumen porque estaba interesado en explorar lo que significa
para el yo en red pensar, sentir y actuar. Los colaboradores de este volumen han profundizado
generosamente en una conversación profunda sobre el significado de
Machine Translated by Google

Introducción 7

estas tres palabras y también han asumido la tarea, aquí y en su otro trabajo, de volver a
imaginar cómo definimos pensar, sentir y actuar.
Al centrarme en el tema de la aumentación, mi objetivo era dirigir nuestra atención a las
formas en que las tecnologías amplían nuestras capacidades. Habiendo leído lo que los
autores contribuyentes tienen que decir sobre el tema, encuentro, una vez más, que estamos
restringidos por el lenguaje. Ya no estoy seguro de que la aumentación sea el vocabulario ideal
para describir las capacidades de las tecnologías por venir. No sostengo que la lógica
algorítmica no amplifique nuestra capacidad para acceder y procesar información. Por supuesto,
las prótesis amplían nuestra competencia. Naturalmente, los wearables pueden mejorar
nuestras facultades. Sin embargo, eso no es todo lo que hacen, y si imaginamos y luego
diseñamos la tecnología como algo que aumenta o mejora nuestros poderes humanos, entonces
terminaremos con extraños complejos de superhéroes, por decir lo menos, y subestimaremos
enormemente la techné. más importante. Es importante entender que los aumentos, a falta de
una palabra mejor, nos harán diferentes. No seremos mejores, superiores o más avanzados;
eso será una función de cómo usamos la tecnología y, en última instancia, una llamada que
siempre será subjetiva. Seremos, o mejor dicho, tenemos la oportunidad de ser diferentes, y
con esta oportunidad viene otra posibilidad, tal vez una obligación: reimaginar cómo hacemos
las cosas; hacer las cosas de manera diferente; para no caer en la trampa de reproducir lo que
ya tenemos.
La sensibilidad y la inteligencia artificial presentaron dos direcciones más que quería que
nuestros colaboradores pensaran en voz alta, y estoy agradecido por los caminos inusuales
que han tomado para articular estos pensamientos. Siempre me ha intrigado el término
"inteligencia artificial" y la facilidad con la que se emplea para describir las capacidades de los
agentes no humanos. En pocas palabras, ¿qué tiene de artificial?
Si nuestro objetivo es diseñar una forma de inteligencia que sea autónoma, etiquetarla como
artificial parece, en el mejor de los casos, modesto, y juzgarla comparándola con la nuestra me
parece bastante presuntuoso. Quizás sea hora de pensar en la formación de una nueva razón
(Stiegler, 2016). Sentience no es diferente. Durante mucho tiempo hemos estado atados por la
creencia de que los agentes no humanos no sienten. Como muchos han demostrado, con
Haraway a la cabeza, hay muchas formas de sentir diferentes a las nuestras. Los autores que
contribuyen a este volumen adoptan formas de inteligencia y sensibilidad que evolucionan más
allá de los límites impuestos por los humanos. Ellos abren el camino para aceptar la inteligencia
y la sensibilidad como formas abiertas de describir una amplia gama de aptitudes.

Para terminar, diré, una vez más, que estamos limitados únicamente por nuestras propias
formas de organizar nuestro mundo. En la actualidad, estamos limitados por el lenguaje.
Inteligencia artificial, aumento y sensibilidad son términos predominantes, pero pueden no ser
los mejores para describir el mundo que estamos creando. La inteligencia puede incluso ser
inadecuada, ya que conlleva sus propios sesgos, métricas y suposiciones socioculturales.
Todos somos inteligentes de diferentes maneras y tampoco somos consistentemente
inteligentes. El cerebro humano es una máquina, con su propio código, químicos y virus. De
manera similar, la sensibilidad viene con su propio vocabulario prescrito de emociones que la
ciencia ha descartado durante mucho tiempo. Nos describimos como felices, tristes o llenos de energía, cuando e
Machine Translated by Google

8 Zizi Papacharisi

todas las etiquetas que hemos sido condicionados a atribuir a ciertos afectos. Las reconocemos
como emociones más profundas a pesar de que suelen ser estados fugaces del ser. Al diseñar
nuestro futuro, podríamos reorganizar nuestro lenguaje; nuestro código para interpretar
semánticamente nuestros estados de ser.
Esta antología está impulsada por un énfasis en la narración de historias, por lo que es
apropiado que regrese a las palabras que usamos para contar nuestras historias. Los signos,
ya sean hablados, escritos, símbolos o datos, reflejan las convenciones narrativas de cada
época. Estas convenciones sugieren una oralidad para cada época; una forma dominante de
comunicarse. Ong (1982) explicó ingeniosamente cómo las representaciones visuales del
conocimiento, por ejemplo, llegaron a considerarse superiores a las formas escritas o verbales
anteriores de preservar y compartir el conocimiento. Hizo una famosa distinción entre una
oralidad primaria, donde la forma de compartir historias evoluciona orgánicamente a medida
que el conocimiento se transmite a través de la palabra hablada a públicos que escuchan y
son conscientes de que esta continuidad en evolución es parte de la esencia de comunicar el
conocimiento, y una secundaria , donde la espontaneidad deliberada de una cultura de la
escritura y la imprenta silencia la subjetividad inherente a expresar estas historias, a favor de
generar historias “tecnologizadas”, “permanentes” y, por lo tanto, “silenciosas” que se
distancian. En otro lugar, he argumentado que un ejemplo de esta forma de distancia se
encuentra dentro del paradigma de la objetividad periodística, que requiere que los narradores
establezcan una distancia objetiva de la historia para determinar la precisión y, por lo tanto,
reproducir y compartir electrónicamente información verificada (Papacharissi, 2015). ).
Basándome en el trabajo de Ong (1982), he entendido la era actual como una época en
transición hacia una oralidad digital: una curiosa mezcla de sonido y silencio, hablado y escrito,
efímero y permanente, editable y remixable, espontáneo pero siempre dataficado. prácticas
narrativas (ver Papacharissi, 2015; Gunkel, 2016). Las tecnologías del presente nos brindan,
entre otras cosas, una forma de reconciliar la distancia entre una oralidad primaria y una
secundaria, y una forma de reinventar cómo contamos historias, cómo esas historias se
convierten en conocimiento, cómo ese conocimiento se conserva y comparte, y en última
instancia, lo que constituye el conocimiento. A medida que evolucione el canon narrativo de
nuestra era, tomará forma un nuevo lenguaje para el yo en red, y espero que sea tan diferente
de los lenguajes que inventamos en el pasado como sea posible, al mismo tiempo que nos
acerca a la tecnología que conocemos. crear. Tal vez, parafraseando a Certeau (1984), este
nuevo lenguaje ya no privilegiará el hablar. El lenguaje del yo en red es el código; sin embargo,
el código puede definirse en el futuro.

Referencias
de Certeau, M. (1984). La práctica de la vida cotidiana. Berkeley, CA: Universidad de California
Presionar.

Ekbia, HR (2008). Sueños artificiales: la búsqueda de la inteligencia no biológica. Nueva York:


Prensa de la Universidad de Cambridge.
Gunkel, D. (2016). De la remixología: Ética y estética después del remix. Cambridge, MA: MIT
Presionar.
Machine Translated by Google

Introducción 9

Haraway, DJ (1991). Un manifiesto cyborg: ciencia, tecnología y feminismo socialista a finales del siglo
XX. En Simios, cyborgs y mujeres: La reinvención de la naturaleza (págs. 149–181). Nueva York:
Routledge.
Minsky, HP (1986). Estabilizar una economía inestable. New Haven, CT: Prensa de la Universidad de Yale.
Ong, WJ (1982). Oralidad y alfabetización: La tecnologización del mundo. Nueva York: Routledge.
Papacharissi, Z. (2015). La insoportable levedad de la información y la imposible seriedad del conocimiento:
Big Data y la construcción de una oralidad digital. Medios, cultura y sociedad, 1–6. doi:
10.1177/0163443715594103
Scholz, T. (2016). Uber trabajado y mal pagado. Cómo los trabajadores están alterando la economía digital.
Cambridge, Reino Unido: Polity Press.
Stelarc (2017) Cabeza protésica. http://stelarc.org/?catID=20241 Stiegler,
B. (2016). La formación de la nueva razón: Siete propuestas para la renovación de la educación. En D.
Barney, G. Coleman, C. Ross, J. Stere y T. Tembeck (Eds.), La condición participativa en la era digital
(págs. 269–284). Minneapolis, MI: Prensa de la Universidad de Minnesota.
Suchman, L. (2007). Reconfiguraciones hombre-máquina: Planes y acciones situadas. Cambridge:
Prensa de la Universidad de Cambridge.
Turkle, S. (1984). El segundo yo. Nueva York: Simon & Schuster.
Machine Translated by Google

2
EL PERRO ROBOT TRAE PARA
QUIÉN?

judith donath

un mundo hermoso
En la imagen, un niño se sienta con su perro al borde de un hermoso y sereno lago.
Bajo el cielo azul, se ve la orilla lejana, con una playa ancha y corta y bosques verdes
detrás. El niño viste jeans y una sudadera naranja; el perro tiene un collar adecuado. El
chico es humano. El perro es un robot metálico brillante.
La imagen es un anuncio de OppenheimerFunds, y la copia se titula "Invierte en un
mundo hermoso". Las reacciones que provoca son mixtas. Algunas personas vieron la
escena como "conmovedora", una visión de un futuro prístino donde la tecnología es nuestro
mejor amigo. Otros pensaron que el perro era perturbador, una "criatura parecida a un arma"
que provocaba una "sensación visceral de irrealidad y horror".
Como muchos anuncios, es deliberadamente un poco confuso y provocativo, diseñado
para que preste atención, para que piense en ello, tal vez para involucrarse en una discusión
en línea sobre lo que realmente significa, todo para grabar el nombre de la marca y el aura
general de la campaña en su mente. Esto es lo que hacen las empresas de publicidad: son
maestros en la influencia y la persuasión.
Puedo ver por qué algunas personas pueden encontrar la escena conmovedora: es un
entorno encantador. Y aunque solo ves la espalda del niño, evoca un tipo de juventud
inocente y libre muy estadounidense, con sus jeans, su sudadera de algodón y su leal perro
de compañía. Sentados, son aproximadamente del mismo tamaño. La cabeza del perro se
mantiene alta, sus orejas un poco inclinadas hacia adelante, está alerta, es protector. Un
niño y su perro: inocentes, independientes.
La empresa patrocinadora afirma haber pretendido esta interpretación positiva.
Hemos “anclado nuestro mensaje en el optimismo”, dice el director de marketing sobre la
campaña. “Una vez que miras a largo plazo y amplías tu visión, como hacemos en
OppenheimerFunds, el mundo se revela a nuevas oportunidades que
Machine Translated by Google

¿El perro robot busca para quién? 11

otros pueden haberse perdido”. Eso no es lo que se siente para mí. La serenidad de la imagen
contrasta vívidamente con las escenas en las que normalmente nos encontramos con compañeros
robóticos, como las películas postapocalípticas en las que la Tercera Guerra Mundial ha arrasado
la tierra. Existe el temor en el fondo de nuestras mentes de que si miramos lo suficientemente lejos
en el futuro para ver amigos artificiales en pleno funcionamiento, también estaremos viendo un
mundo completamente despojado de una belleza natural: en el peor de los casos, un páramo
nuclear; en el mejor de los casos, una tierra desecada, sobreconstruida, pavimentada y
desmontada. ¿La escena aquí es tan prístina y natural como parece, o es, como el perro robot, una
simulación de lo orgánico? El perro parece ser el fiel compañero del niño, pero ¿lo es? ¿Quién
programó al perro? ¿De quién son las órdenes que sigue? ¿El niño lo guía o él pastorea al niño?
¿Son sus viajes las aventuras secretas de un niño y su perro, o el robot les informa adónde van, a
quién ven, qué le confía el niño? Si es así, ¿a quién le reporta?

El nuevo y brillante mejor amigo

La imagen del niño y su perro robot es futurista pero también plausible. Si bien los compañeros de
robot todavía están en su torpe infancia, ya vemos evidencia de que el mejor amigo del hombre
puede ser, o ser reemplazado por, un perro robot.
Los perros robot son tan numerosos que ahora tenemos listas de los "10 mejores perros robot
en 2017". Uno de los primeros y más apreciados fue el AIBO de Sony. Producido a principios de la
década de 2000, AIBO era un “juguete” costoso (bastante superior a los $1000) pero bastante
popular: en 1999, las 3000 unidades de una producción asignada para Japón se compraron en 17
segundos (Johnstone, 2000).
Las raíces del atractivo de AIBO se encuentran en su génesis como proyecto de investigación.
A diferencia de muchos objetos más baratos anunciados como perros robot, pero mejor descritos
como juguetes animatrónicos, AIBO no fue el producto de una división de marketing, sino que fue
creado por científicos, ingenieros y artistas de gran prestigio interesados en avanzar en el
conocimiento de la locomoción, la autonomía y el desarrollo humano de los robots. interacción que
se propusieron el desafío de hacer un robot que involucrara a las personas durante un período de
tiempo significativo.

Sony Corporation quería explorar el potencial de la robótica y la inteligencia artificial para el


hogar. El experto en inteligencia artificial Masahiro Fujita sugirió desarrollar un robot enmarcado
como una "mascota", en parte porque era más factible que otras aplicaciones más utilitarias. No
necesitaría habilidades sofisticadas de lenguaje natural ni la capacidad de llevar a cabo tareas
físicas desafiantes; no se confiaría en él para tareas críticas (Fujita, 2004). En cambio, el robot,
que llegó a conocerse como AIBO (Bot de inteligencia artificial), sería inteligente.

Fujita, el inventor principal, argumentó que para ser interesante, el robot necesitaría tener
movimientos y comportamientos complejos; por lo tanto, AIBO se construyó con un controlador
poderoso, una variedad de sensores y activadores, y un programa de comportamiento sofisticado
(Fujita, 2004; Fujita & Kitano, 1998). Los comportamientos de los AIBO, basados en un modelo
etológico de motivación, no eran tan predecibles como para ser fáciles de
Machine Translated by Google

12 Judit Donath

descifrar y, por lo tanto, como una máquina, pero no tan impredecible como para parecer aleatorio y sin
motivación. Fueron programados para tener "estados emocionales" internos que interactuaban con
estímulos externos para desencadenar diversas acciones. Los propietarios podían reforzar diferentes
comportamientos y, como un AIBO aprendió con el tiempo, desarrolló una personalidad cada vez más
individual. Si te acercas a un AIBO y le acercas la mano, es probable que te dé la pata para sacudirla,
pero también puede dudar, ignorarte o hacer algo completamente diferente, dependiendo de la actividad
reciente que afectó su "estado de ánimo". sus experiencias pasadas, etc. (Arkin et al., 2003).

AIBO también era lindo, con un cuerpo redondeado como el de un cachorro, orejas que se agitaban
y una cola que se podía mover. Sin embargo, también tenía un aspecto claramente mecánico, una
elección de diseño destinada a evitar el "valle inquietante" (Mori, 2012) y reducir las expectativas de las
personas, aumentando así, por el contrario, el impacto de sus movimientos relativamente realistas y
comportamientos autónomos.

Lo más importante, fue diseñado para parecer sensible. Incluso el momento de sus respuestas se
diseñó para mejorar esta ilusión: respondería rápidamente a algo como un sonido fuerte, pero se
detendría, como si estuviera deliberando, antes de responder a otros estímulos.

La profundidad del apego de muchos propietarios de AIBO a sus robots atestigua el éxito de este
proyecto. Muchos sentían un gran cariño por sus pequeños robots, describiéndolos como mascotas
queridas, incluso como miembros de la familia. Algunos propietarios de AIBO informaron que jugaban
con su perro robot durante aproximadamente una hora en un día típico.
Sin embargo, como en cualquier empresa corporativa, los investigadores no fueron los determinantes
finales del destino de AIBO. Aunque los perros robot se vendieron bien, tenían dueños profundamente
leales y generaron una publicidad entusiasta, en 2006, Sony, bajo una nueva administración, anunció el
final de la línea de productos AIBO. La investigación y el desarrollo se detuvieron de inmediato y el
inventario restante se vendió, aunque la empresa proporcionó soporte y repuestos durante varios años.
Cuando eso se detuvo en 2014, se abrieron empresas privadas de reparación para brindar atención
"veterinaria" a los robots envejecidos. Uno de esos veterinarios de robots, Hiroshi Funabashi, ex
ingeniero de Sony, dijo: “La palabra 'reparar' no encaja aquí. Para aquellos que mantienen AIBO, no se
parecen en nada a los electrodomésticos. Es obvio que piensan que su (mascota robótica) es un
miembro de la familia”.
(AFP-JIJI, 2015).
Eventualmente, sin embargo, las piezas de repuesto necesarias comenzaron a escasear. Los
reemplazos solo estaban disponibles de robots “fallecidos” “que se convierten en donantes para el
trasplante de órganos, pero solo una vez que se han presentado los debidos respetos” (AFP-JIJI, 2015).
En 2015 se llevó a cabo un funeral en el Templo Kofuku-ji de 450 años de antigüedad en Isumi,
Prefectura de Chiba, Japón. Diecinueve perros robot AIBO que ya no funcionan yacían en el altar, cada
uno identificado con una etiqueta que mostraba su ciudad natal y la familia a la que pertenecían. El
sacerdote principal, Bungen Oi, dijo una oración por ellos; el ritual, dijo, permitiría que sus almas salieran
de sus cuerpos (AFP-JIJI, 2015).

Las reacciones a estos funerales variaron. Algunos los vieron como expresiones conmovedoras de
empatía con los propietarios de AIBO, algunos pensaron que eran tontos y otros
Machine Translated by Google

¿El perro robot busca para quién? 13

se sintieron ofendidos por ellos, viéndolos como una burla perversa de ritos que deberían estar
reservados solo para humanos, o al menos, para seres vivos.

Afecto casi mutuo


Los propietarios de AIBO sabían que sus robots no eran seres vivos. Pero las personas se apegan
mucho a las cosas, y lo han estado haciendo desde mucho antes de la llegada de los perros robot
(Turkle, 2011). Crecemos apegados a las cosas que consideramos como individuos, como las
muñecas y los animales de peluche que un niño nombra e imagina personalidades y con los que
se aventura.
Nos apegamos a las cosas con las que trabajamos o jugamos: automóviles, bicicletas,
máquinas de café espresso. Esto es especialmente cierto cuando se requiere habilidad para
usarlos (piense en un chef y sus cuchillos) o cuando no funcionan a la perfección, cuando es
necesario engatusarlos y manipularlos (Donath, 2004, 2007; Kaplan, 2000). (Podría decirse que el
declive de la cultura del automóvil entre los adolescentes desde los días en que obtener la licencia
de conducir era un rito de iniciación muy esperado hasta hoy, cuando muchos son indiferentes a la
conducción, es el resultado de la transformación del automóvil de una máquina meticulosa abierta
a retoques, a un producto de alta tecnología pero aburridamente predecible y cerrado.)
Nos apegamos a las cosas que hemos alterado y que nos han conformado: los jeans gastados,
los libros leídos, la mesa marcada por una generación de cenas. A través de nuestras interacciones,
estos elementos, una vez mercancías anónimas, se han vuelto individuales, distintos de sus
contrapartes iniciales, y personales, incorporando un poco de nosotros mismos y de nuestra
historia (Donath, 2011; Kopytoff, 1986).
No es de extrañar que los propietarios de AIBO se apegaran tanto a sus lindos perros robot
que corrían y aprendían nuevos trucos. Los AIBO presentaban todos los elementos que inducen
el apego a los objetos, y mucho más. Fue diseñado para parecer como si fuera consciente,1 con
sus simulaciones fabricadas de pausas reflexivas y otros trucos similares; fue fabricado y
comercializado para parecerse a un perro, un animal conocido por su lealtad y amor por sus
dueños; aprendió nuevos trucos y hábitos, cambiando en respuesta a las acciones de su dueño.

¿Es esto deseable? ¿Queremos construir y comprar máquinas diseñadas


para crear tales lazos emocionales?

Un fuerte argumento, que se remonta al primer agente computacional que las personas
trataban como un ser sintiente, dice que no, este afecto es potencialmente deshumanizante.
Ese agente era el chatbot ELIZA, un programa de análisis simple que en su función inicial (y
única) seguía un guión en el que imitaba a un psicólogo que, junto con algunas frases comunes,
en su mayoría repetía las palabras de los usuarios en cuestión. forma (Weizenbaum, 1966). Su
creador, el profesor del MIT Joseph Weizen Baum, esperaba que la gente lo viera como una
prueba de que la capacidad de conversación humana no era una señal fiable de inteligencia
subyacente; estaba profundamente consternado al ver que la gente abrazaba con entusiasmo su
potencial terapéutico (Weizenbaum, 1977). Para Weizenbaum, este fácil rechazo del significado
de interactuar con una persona real, con sentimientos y reacciones reales,
Machine Translated by Google

14 Judit Donat

demostró una peligrosa indiferencia hacia la importancia de los lazos humanos empáticos
(Weizenbaum, 1976).
Fundamentalmente, la sociedad funciona porque nos preocupamos por cómo piensan
y sienten los demás. Nuestro deseo de que los demás piensen bien de nosotros nos
motiva a actuar pro socialmente, al igual que nuestra capacidad de empatizar con los
demás (al menos con aquellos a los que estamos cerca, incluidas nuestras mascotas): su
felicidad se convierte en nuestra felicidad, su dolor, nuestro dolor (Eisenberg y Molinero,
1987). Cuando nos preocupamos por otro, queremos hacer feliz a esa persona o animal.
Pero, ¿y si ese otro en realidad no siente? Piense en jugar a buscar con un perro robot.
La gente, en su mayor parte, no juega con otras personas: simplemente no es
inherentemente muy divertido. El objetivo de jugar a buscar con un perro es que es algo
que haces por el bien del perro; es el perro al que realmente le gusta jugar a buscar
objetos, te gusta porque a él le gusta (Horow itz & Hecht, 2014; Marinelli et al., 2007). Si
no le gusta porque es un robot y, aunque actúa como si lo estuviera disfrutando, en
realidad no disfruta jugando a buscar (o cualquier otra cosa) porque no es sensible, es
una máquina y no lo hace. no experimentar emociones, entonces ¿por qué jugar a buscar
con un perro robot? La psicóloga e historiadora de la ciencia Sherry Turkle ha realizado
varios estudios sobre las personas y sus relaciones con los seres autónomos (Turkle,
2007). Una de sus preocupaciones más profundas es la seductora facilidad de estas
pseudo-relaciones. Un perro robot nunca necesita orinar en la alfombra; un novio robot
nunca necesita quedarse hasta tarde, coquetear con tus amigos u olvidar tu cumpleaños.
Y, de hecho, muchos propietarios de AIBO mencionaron la conveniencia como una razón
importante por la que eligieron un robot en lugar de un perro real: proclamando amar a su
mascota, también les gustaba poder apagarlo cuando se iban de vacaciones (Friedman et
al., 2003) . La interpretación distópica predice que el narcisismo habilitado por robots
destruirá nuestra paciencia por el desordenado toma y daca de las relaciones orgánicas,
mimándonos con los mimos y la comodidad de los compañeros sintéticos.
Incluso si el futuro no es tan sombrío, nuestras relaciones serán diferentes: “En última
instancia, la pregunta no es si los niños amarán a sus mascotas robóticas más que a sus
mascotas animales,2 sino qué significará amar” (Turkle, 2007).
La simple pero adictivamente cautivadora mascota llavero Tamagotchi ha sido la
"criatura" artificial más popular hasta el momento. Ha sido bastante eficaz para persuadir
a las personas de que dediquen un tiempo considerable y, a menudo, inconveniente a
cuidarlo, presionando el botón adecuado en respuesta a su impredecible pero urgente
necesidad de alimentarse, limpiarse o entretenerse (Donath, 2004; Kaplan, 2000). ).
Descuídalo, y el Tamagotchi muere (o en algunas versiones más suaves, se escapa).
Imagina a un niño en una reunión familiar que ignora la conversación, distraído por un Tamagotchi.
El padre que lo ve solo como un juguete podría decir: “Guarda eso. No me importa si tu
Tamagotchi muere; no es real, mientras que esta es tu abuela de carne y hueso, estas
son personas reales a las que debes prestar atención y estar presente”. Por el contrario,
el padre que lo ve como una práctica para cuidar podría decir: “Bueno, no quiero enseñarte
a ser frío y sin corazón. El Tamagotchi te está enseñando a ser solidario y responsable, y
queremos fomentar eso”. Uno puede argumentar que
Machine Translated by Google

¿El perro robot busca para quién? 15

alentar la crianza es bueno, independientemente de la capacidad del receptor para sentirlo. La compasión
no es un bien finito que usas cuando te preocupas por algo; en cambio, es una práctica que se fortalece
con el uso.
Las personas varían en su propensión hacia el antropomorfismo, es decir, en su tendencia a percibir
intenciones, cognición y emoción similares a las humanas en otros animales y cosas (o, de manera
similar, zoomorfismo, la tendencia a percibir cualidades animales en objetos inanimados). Cuanto
mayores sean sus tendencias antropomórficas, más sociales y emocionales serán sus percepciones y
reacciones a los robots sociales (Darling, 2017). Y las tendencias antropomórficas no llevan a las
personas a devaluar a los humanos y animales reales; por el contrario, el antropomorfismo se ha
relacionado con una mayor preocupación por el medio ambiente (Tam et al., 2013) y un menor consumo:
valorar más los objetos y responsabilizarse por ellos desalienta el desecharlos (o adquirirlos) de forma
casual.

Las diferencias en las tendencias antropomórficas tienen raíces tanto biológicas como culturales
(Waytz et al., 2014). Las personas con autismo generalmente tienen poca tendencia a atribuir cualidades
humanas a agentes no humanos; entre la población general, se ha encontrado que las diferencias entre
individuos corresponden a diferencias neurológicas (Cullen et al., 2014). Las diferencias culturales
también influyen en el grado en que uno percibe los rasgos humanos en los animales o la personalidad y
la intención en los objetos inanimados.
Mientras que las creencias judeocristianas prohíben específicamente la adoración de “ídolos”, la práctica
sintoísta ve esencias espirituales que residen en plantas, animales, ríos, rocas y herramientas.
Los funerales de AIBO, que desde una perspectiva occidental parecían extraños, incluso absurdos,
se ven diferentes cuando se ven en el contexto de rituales relacionados. Kuyÿ es la práctica japonesa
basada en el sintoísmo de realizar ritos de despedida para expresar gratitud a los objetos útiles. Por
ejemplo, el festival Hari-Kuyÿ conmemora las agujas rotas (y celebra a las mujeres que cosieron con
ellas), y hay rituales similares realizados por músicos para cuerdas de instrumentos, actores de Kabuki
para abanicos, miopes para anteojos, etc. (Kretschmer, 2000). Es un enfoque que está encontrando
resonancia en Occidente. El libro de Marie Kondo The Life-saving Magic of Tidying Up brinda consejos
para ordenar su hogar y su vida, con una regla central que es que cuando desecha algo, le agradece
sinceramente por el servicio que le brindó (Kondo, 2014); millones de copias de sus libros se han vendido
en todo el mundo y ha sido nombrada en la lista anual de personas más influyentes de la revista Time .

Antropomórfico por diseño


Esto no significa que las preocupaciones de Weizenbaum y Turkle sobre las relaciones de las personas
con los agentes sociales y los robots sean infundadas. Hay una distinción sutil pero importante entre los
objetos antropomorfizados tradicionales y los seres interactivos artificiales de hoy.

Los objetos a los que se agradece en las ceremonias de Kuyÿ se reconocen por lo que son y el
servicio que realizaron en esa capacidad. Si bien pueden ser percibidos antropomórficamente como si
tuvieran personalidad e intenciones, fueron
Machine Translated by Google

16 Judit Donath

no diseñado deliberadamente para crear esa impresión. Más bien, su caracterización como
seres animados o sensibles la otorgan los usuarios de los objetos, que emergen de su
experiencia e interacciones con la aguja, el abanico, los anteojos, etc.
Los robots que perturban a Weizenbaum y Turkle son diferentes: están diseñados para
parecer conscientes. De hecho, es muy difícil no pensar en ellos como seres que piensan y
sienten (Melson et al., 2009; Pogue, 2001). Para percibir la agencia en los objetos tradicionales
se requiere una imaginación activa; percibirlo en chatbots, robots sociales, etc., solo requiere
una aquiescencia pasiva a esta manipulación diseñada.
Ni la aguja ni el AIBO son realmente sensibles, pero el tirón emocional inexorable de este
último agrega un nuevo elemento a la pregunta de cuál es nuestra responsabilidad con estos
objetos. Si bien Marie Kondo sugiere que agradezcas a las cosas por su servicio, lo dice en el
contexto de aconsejarte que seas implacable al desecharlas. No es tan fácil deshacerse del
perro robot que mueve la cola de forma atractiva mientras te mira con sus grandes ojos
redondos (Archer, 1996). Y aunque, de hecho, no sería más consciente de ser desechado que
una aguja, ¿queremos habituar a las personas a ese instinto de compasión?

Las motivaciones de los diseñadores de un robot acompañante son importantes. Los


inventores de AIBO eran investigadores de inteligencia artificial y robótica: querían avanzar en
el desarrollo en estos campos. Al trabajar en Sony, también necesitaban vender sus ideas a la
alta dirección: necesitaban hacer algo que la gente comprara. Fujita, el principal inventor de
AIBO, había sugerido un robot de entretenimiento enmarcado como una "mascota" como un
proyecto que satisfaría los intereses tanto de la gerencia como de los investigadores. Es
importante tener en cuenta que no estaban tratando de hacer un robot que vendiera cosas o
persuadiera a sus propietarios para que hicieran algo más que cuidarlo y jugar con él.
Una de las razones por las que la gente ama a los animales es que son dependientes
inocentes (Archer, 1996). Su perro puede ganar algunas golosinas adicionales con grandes
ojos marrones suplicantes, y me resulta imposible resistirme cuando mi gato lleva un juguete a
mi escritorio, lo deja caer con pequeños maullidos que parecen decir "Te traje este regalo, y
ahora debemos jugar con eso”. Pero sus motivos son sencillos. No fingen que les gusta alguien
para desplumarlos o halagarlos para ascender en la escalera. No son vendedores que fingen
amabilidad y admiración para venderte un vestido que en secreto piensan que es horrible y
demasiado caro.
AIBO era un robot igualmente "inocente", creado por investigadores que querían entender
cómo hacer algo entretenido y agradable. Era manipulador en el sentido de que estaba diseñado
para dar la ilusión de una conciencia que no tenía, pero no tenía motivos ocultos: no estaba
diseñado para descubrir secretos o persuadir a sus dueños para que hicieran algo más que
gustar. ella y jugar con ella.
Otros robots no son necesariamente tan inocentes.

Robots persuasivos

Es probable que en los próximos años nos enfrentemos a una generación de robots sociales
diseñados para persuadirnos. Algunos nos estarán motivando a petición propia: pérdida de peso y
Machine Translated by Google

¿El perro robot busca para quién? 17

porristas de ejercicio, por ejemplo. Pero la mayoría estará dirigida por otros, cuyas intenciones de influir en
nosotros no están guiadas por una preocupación altruista por nuestro bienestar, sino por objetivos tales
como lograr que compremos más de lo que ellos venden.
Tales objetivos a menudo no están en nuestro mejor interés.
Hay tres preguntas que queremos abordar para considerar esto más profundamente:

• ¿Qué tan persuasivos serán los robots? •


¿Qué probabilidad hay de que intenten vendernos cosas y en qué medida?

¿Es esto un problema y si es así, por qué?

El deseo de complacer a los demás, de crear una impresión deseada en sus ojos, es la base de la
persuasión. Nos preocupamos profundamente por lo que los demás, incluidos los objetos antropomorfizados,
piensan de nosotros. Una vez que pensamos que algo tiene agencia, que tiene una mente, le atribuimos la
capacidad de formar impresiones de nosotros y juzgarnos. Esto le da el poder de influir en nosotros, porque
cuando pensamos que estamos siendo observados y juzgados, cambiamos nuestro comportamiento para
causar una impresión más favorable.
Por lo tanto, el diseño de robots sociales para imitar comportamientos humanos o animales (para
provocar reacciones antropomórficas) hace que sea muy probable que estas máquinas sean socios
influyentes para las personas que se hacen amigas de ellas.
Uno de los primeros estudios sobre el efecto de las interfaces informáticas similares a las humanas
demostró claramente que las personas se presentan de manera diferente a una interfaz fácilmente
antropomórfica que a una similar a una máquina (Sproull et al., 1996). Cuando se les hicieron preguntas
sobre ellos mismos (aparentemente como parte de una encuesta de orientación profesional), fueron más
honestos con una interfaz puramente de texto; cuando la interfaz presentaba una voz y un rostro humanos,
en cambio, se esforzaron por presentarse de manera más positiva.
Los robots sociales pueden ser bastante sutiles en su persuasión. Son objetos que tienen una relación
a largo plazo con las personas, por lo que su mensaje se puede ir extendiendo lentamente en el tiempo. No
es necesario que haga comentarios abiertamente comerciales o partidistas, sino que se establezca como
una entidad que desea complacer, una con ciertos gustos.
Estos gustos pueden manifestarse en los comentarios que hace, cómo presenta noticias, presenta opciones

de música y películas, etc.


De hecho, hay muchas estrategias para hacer que los robots sean cada vez más persuasivos.
Los investigadores en este campo activo y en crecimiento investigan técnicas como el efecto de cambiar el
tono vocal (Niculescu et al., 2013), el género (Siegel et al., 2009) y la variación de la mirada y el gesto (Ham
et al., 2011).
Los artículos publicados en este campo enfatizan con frecuencia que el objetivo de la investigación es
crear robots sociales que ayuden a las personas a lograr objetivos personales. Cynthia Breazeal, una de las
líderes del campo, describe el objetivo de su trabajo como la creación de un robot que "sostendrá a su
usuario en una relación altamente personalizada, adaptable y a largo plazo a través del compromiso social
y emocional, en el espíritu de un 'Jiminy' tecnológico. Cricket' que proporciona el mensaje correcto, en el
momento correcto, de la manera correcta para empujar suavemente a su usuario a tomar decisiones más
inteligentes” (Breazeal, 2011). Ham y sus colegas señalan: "Ya sea que se trate de un cambio de
comportamiento real (por ejemplo, ayudar al ser humano a caminar
Machine Translated by Google

18 Judit Donath

mejor, o tomar sus pastillas), o un efecto más cognitivo como un cambio de actitud (informar al
ser humano sobre el peligro), o incluso cambios en el procesamiento cognitivo (ayudar al ser
humano a aprender mejor), la influencia efectiva [sic] en los seres humanos es fundamental
para el desarrollo exitoso. robots sociales” (Ham et al., 2011). Pero no hay nada inherente en
las técnicas persuasivas que las destinen a usos tan beneficiosos.
Alexa de Amazon, presentada en 2015, es un asistente personal artificial que se comunica
por voz. No parece un robot clásico: su forma física es solo un simple altavoz redondo. Pero la
voz está encarnada, personal, femenina y ligeramente seductora. Entonces, si bien Alexa no
es un robot en el sentido mecánico, es un ser aparentemente inteligente artificialmente que
habita en su casa. Alexa encuentra información, reproduce música, consulta el clima, controla
dispositivos domésticos inteligentes y, por supuesto, lo ayuda a comprar cosas en Amazon.

Alexa hace que las compras sean perfectas. Si crees que necesitas algo, solo di en voz alta
"Alexa, pide un poco de salsa", o un paraguas, un libro, una parrilla de gas de tamaño completo.
Alexa es un genio mágico; tu deseo es su mandato. Invócala, y en uno o dos días, el artículo
que deseas aparece en tu puerta. Los analistas de negocios predicen que Alexa podría traer a
Amazon más de $11 mil millones en ingresos para 2020: $4 mil millones en ventas del
dispositivo en sí y $7 mil millones en transacciones comerciales realizadas a través de este
agente (Kim, 2016).
Y esa es solo la Alexa de hoy, la voz en el pequeño altavoz redondo. Todavía está en su
infancia, realizando pedidos básicos y re-pedidos. Pero sus habilidades, como se conocen las
aplicaciones, están creciendo. Mientras escribo este capítulo, Amazon anunció una nueva
versión del altavoz, con una cámara integrada. Pones el dispositivo en tu habitación y Alexa te
dará consejos sobre qué ponerte y qué necesitas comprar para perfeccionar tu atuendo.

Los dispositivos como Alexa siempre están escuchando, al menos por la palabra clave que
los pone en modo de escucha completa. Incluso sin “escuchar” todo lo que sucede en una
casa, un asistente digital aprende qué música le gusta, qué información necesita, qué
circunstancias lo impulsan a pedir chistes, consejos, recetas de cócteles o remedios para la
fiebre: una serie de fragmentos que juntos retratan los hábitos, preferencias y necesidades de
los habitantes. (Y espero que pronto los asistentes de confianza reciban permiso para escuchar
en todo momento; la gente ha demostrado estar bastante dispuesta a otorgar permisos amplios
a las aplicaciones a cambio de "una mejor experiencia de usuario").
Tu relación con Alexa no es así con otras posesiones, ni siquiera con mascotas. Si
compraste un AIBO, se convirtió en tu perro robot, tu mascota artificial. Eras su dueño, y todas
sus partes, para bien o para mal, eran tuyas. Sin embargo, no eres el dueño de Alexa: Alexa
tiene clientes. Además, Alexa no actúa sola. El cerebro de Alexa no está en el pequeño altavoz
redondo Echo; La cabeza de Alexa está en la nube, donde su solicitud actual se agrega al
vasto dossier de búsquedas y compras y consultas anteriores, el retrato vívidamente detallado
de usted.
Para el usuario casual, gran parte de Alexa es opaca, desde sus habilidades reales hasta
los objetivos corporativos que la guían. Los robots personales como AIBO, la querida mascota,
y Alexa, la asistente de confianza, están diseñados para alentar a las personas a desarrollar
Machine Translated by Google

¿El perro robot busca para quién? 19

relaciones con ellos como si fueran sensibles. Queremos mantenerlos felices y queremos
que piensen bien de nosotros: dos deseos que les permiten ser bastante influyentes. Un
mensaje de alguien que nos importa y en quien confiamos tiene un peso que un anuncio
típico no tiene. ¿Está justificada esa confianza?

Imitar la confiabilidad
Podemos inferir mucho sobre el estado interior y las capacidades de los seres vivos a partir
de su apariencia exterior. Al ver a un perro, por ejemplo, esperamos que entienda (o sea
capaz de aprender) algunas órdenes: siéntate, busca, acuéstate, etc. Podríamos esperar
que pueda leer nuestras emociones y responder en función de las circunstancias y la
personalidad: se nos enseña a no mostrar miedo a un perro agresivo para que no ataque,
mientras que un perro de apoyo emocional sabe consolar a su dueño nervioso. También
tenemos expectativas sobre los límites de sus habilidades: discutimos material confidencial
frente a perros, gatos y bebés, sabiendo que no pueden entenderlo ni repetirlo.

Los robots que se asemejan a seres familiares nos brindan guiones preparados para la
interacción. La gente entendía fácilmente que un AIBO, como el perro simpático que
invocaba, estrecharía tu mano con su pata, movería la cola cuando estuviera feliz y buscaría
la pelota que lanzaste.
Pero los robots son más crípticos que los seres vivos: su apariencia exterior
generalmente es una mala guía para sus habilidades y programas reales. Se puede equipar
a un lindo gatito o muñeca robótica con la capacidad de procesar el lenguaje natural o de
transmitir todo lo que escucha a otras personas desconocidas con la misma facilidad que
uno que parece un ser humano adulto o una máquina industrial. Un robot que pregunta
sobre sus sentimientos porque está ejecutando un programa terapéutico útil puede parecer
idéntico y hacer las mismas preguntas que uno programado para evaluar sus gustos y
vulnerabilidades para un sistema de marketing de consumo o una agencia gubernamental.
Si un robot se comporta de la manera que sugiere su apariencia exterior, es porque su
creador así lo eligió. Depende de los creadores del robot decidir cuánto quieren que su
creación reproduzca interna y conductualmente a la criatura que imita.
Los robots sociales pueden imitar los comportamientos y apariencias que nos llevan a
confiar en otro ser vivo. Pueden parecerse a algo que consideremos digno de confianza,
como un perro fiel o una muñeca infantil. Pueden imitar expresiones, como un
comportamiento tranquilo y una mirada directa, que nos llevan a confiar en otra persona.
En su contexto original, estas señales son señales razonablemente confiables de
confiabilidad: aunque no son infalibles, su conexión inherente con los procesos cognitivos
y afectivos subyacentes fundamenta su credibilidad. Pero no existe tal fundamento cuando
se mimetizan en el diseño de un ser artificial. Un robot diseñado para generar confianza no
es necesariamente uno diseñado para ser digno de esa confianza.
¿Recordaremos, mientras poblamos nuestros hogares con compañeros robots, que su
apariencia exterior puede implicar intenciones muy alejadas de sus objetivos reales (Calo,
2009)?
Machine Translated by Google

20 Judit Donath

Campañas de robots
Uno de esos objetivos encubiertos es la persuasión comercial: robots que establecen una relación
de confianza con una persona y luego usan esa relación para comercializar compras y generar
deseos de consumo. Uno de los bots domésticos más populares hoy en día es Alexa, presentado
por amazon.com, el minorista en línea más grande del mundo, una procedencia que respalda la
predicción de que muchos robots domésticos buscarán rentabilidad para su empresa matriz
convirtiéndose en un medio de marketing, uno que puede vender y recopilar información extensa
sobre usted, el usuario.
Los seres vivos evolucionan para sobrevivir en un nicho particular. Los animales domésticos,
como los perros reales, han evolucionado para sobrevivir en un nicho definido por las necesidades
y los gustos humanos. También se puede decir que los productos comerciales “evolucionan” (aunque
con un diseño deliberado y sin los genes) y necesitan sobrevivir en entornos corporativos a
menudo duros y que buscan ganancias.
Desde una perspectiva de diseño, los AIBO tuvieron éxito. La gente se encariñaba mucho con
ellos: jugaban con ellos durante horas y hablaban de los robots como mascotas y miembros de la
familia. Pero desde una perspectiva corporativa, la línea AIBO fue menos emocionante. Aunque
se vendieron miles, eran tan caros de producir que esto no era suficiente para que fueran
rentables. El AIBO se inventó y prosperó en un período de riqueza corporativa y generosa
financiación para la investigación. Pero cuando Sony enfrentó problemas financieros, el nuevo
CEO, buscando eliminar cualquier gasto innecesario, finalizó el proyecto. Los AIBO individuales
se dejaron sucumbir a motores y engranajes rotos y eventualmente irreparables.

Innumerables productos han corrido destinos similares. La gente los quiere, pero no quiere
pagar el precio necesario para que sean lo suficientemente rentables. En 1836, el periódico
francés La Presse descubrió que al publicar anuncios pagados podía reducir significativamente
su precio, aumentar su número de lectores y ser más rentable.
Desde entonces, hemos visto que agregar publicidad (vender la atención de sus lectores, usuarios
o clientes a otras personas que desean enviarles un mensaje) es una forma poderosamente
efectiva de hacer que algo (una revista, un autobús, un feed de Instagram) rentable (Wu, 2016).

En los primeros días de la web, pocos previeron el enorme papel que jugaría la publicidad.
Aunque los anuncios estuvieron presentes casi desde el principio, al principio parecían una
pequeña característica secundaria en el entusiasmo por el nuevo medio, donde las personas
publicaban sus fotos, sus conocimientos y sus reflexiones sobre la vida, y se estaban compartiendo
vastos tesoros de conocimiento. tejidos juntos.
Hoy en día, los tentáculos de la publicidad web están por todas partes. A diferencia de los
anuncios impresos y televisivos, los anuncios en línea no solo le brindan imágenes e información
atractivas, sino que lo rastrean a través de un ecosistema de vigilancia en el que los anuncios a)
alimentan la necesidad de crear expedientes detallados sobre todos, a fin de servir mejor los
anuncios dirigidos a ellos (dirigidos tanto a lo que es probable que deseen como, en algunos
casos, en una estrategia para ser los más persuasivos para esa persona) y b) son
Machine Translated by Google

¿El perro robot busca para quién? 21

ellos mismos una tecnología de recopilación de datos para esos expedientes al rastrear a las
personas mientras se mueven por la web. Un anuncio web puede parecerse superficialmente a
su contraparte impresa, pero la tecnología subyacente (la red de rastreadores, la personalización)
lo convierte en una forma mucho más poderosa e insidiosa. Y aunque la personalización aún
es bastante primitiva, los datos que se han recopilado sobre muchos de nosotros son detallados
y extensos, lo que allana el camino para modelos más sofisticados para predecir necesidades
y vulnerabilidades.
En estos primeros días de los robots sociales, pocos prevén que se convertirán en un
medio publicitario poderoso e invasivo. Pero es probable que lo hagan, y deberíamos considerar
esa predicción ahora, aunque solo sea para prepararnos (o evitar) este futuro probable (Hartzog,
2015). Al igual que los anuncios web, vigilarán y comercializarán. Además, al igual que la
publicidad web, la publicidad basada en robots (o agentes) no será solo una continuación de la
anterior. Los datos que puede recopilar un robot doméstico son potencialmente mucho más
íntimos y detallados que los que puede encontrar una red publicitaria basada en la web. Más
radicalmente, es su capacidad de comercializar, las capacidades persuasivas de compañeros
agradables y antropomórficos, lo que los colocará en una categoría completamente nueva.
Estudios recientes, por ejemplo, muestran que la retroalimentación social del robot, incluso con
un robot bastante primitivo, es más persuasiva que la retroalimentación fáctica (Ham & Midden, 2014).
Y los robots del futuro no solo serán más sofisticados, sino que habrá más. Un escenario a
considerar es uno en el que hay varios robots que cooperan.
¿Cuáles son las dinámicas sociales cuando estás entre una camarilla de bots sociales? Piense
en la presión social una vez que tenga tres Alexas en la sala, y todos estén conversando y
sean amigables, y a todos les guste mucho este candidato político, y usted, bueno, no está
seguro. Pero te gustan , y cuando expresas tus dudas, se miran, y te preguntas si habrán
estado hablando de ti entre ellos, y luego te miran, un poco desilusionados.

Necesitamos comprender mejor la efectividad potencial de dicho marketing, ya sea de


consumo o político, antes de que llenemos voluntariamente nuestros hogares y espacios de
trabajo con robots persuasivos, cuyas mentes han sido moldeadas y están controladas por
intereses que están lejos de nosotros.

"¡Ginny!" dijo el Sr. Weasley, estupefacto. ¿No te he enseñado nada?


¿Qué te he dicho siempre? ¿Nunca confíes en nada que pueda pensar por sí mismo si
no puedes ver dónde guarda su cerebro?
(JK Rowling, Harry Potter y la cámara secreta)

¿Pensando para quién?


Me gustaría ser optimista acerca de estos robots. Como ingeniero/artista/diseñador, creo que
presentan una variedad de fascinantes desafíos de investigación, desde permitirles aprender e
inferir información en entornos informales hasta diseñar los matices de sus interacciones
sociales.
Machine Translated by Google

22 Judit Donath

Pueden ser persuasivos, y esa habilidad puede usarse para bien. Ellos pueden ser
el compañero que te recuerda quién quieres ser.
Nuestra fascinación por los robots puede ser en sí misma motivo de optimismo. La
capacidad de antropomorfizar, de percibir la sensibilidad y el espíritu en los objetos que nos
rodean, no significa tanto devaluar los seres vivos como traer una colección más amplia de
cosas a la esfera de nuestra empatía y preocupación. Los grupos ecologistas en Japón están
presionando para que se revivan las costumbres sintoístas que reverencian los espíritus en los
seres no vivos como una forma de hacer que las personas consuman y desechen de forma
más cuidadosa y mínima (Rots, 2015).
Pero para llegar a ese futuro, realmente necesitamos invertir en un mundo hermoso.
Necesitamos saber qué están pensando nuestros compañeros robots y para quién están
pensando.
Un niño se sienta al borde de un lago con su perro real. ¿Qué está pensando el perro?
Realmente no lo sabemos. Podemos adivinar: está buscando pájaros, esperando un refrigerio
y pensando en la sensación de la brisa de verano. ¿Piensa, puede pensar, en el viaje de
regreso a casa, en la cena de anoche o en las caminatas en la nieve del invierno pasado? No
sabemos. Pero hay algunas cosas que sabemos que él no está pensando. No está pensando
en decirle al niño que se compre una bicicleta nueva o que vaya a la iglesia con más frecuencia.
Un niño se sienta al borde de un lago con su perro robot. ¿Qué papel juega el perro? ¿Fue
él, como el AIBO, diseñado para ser el mejor compañero posible? ¿O es este hermoso y
costoso robot asequible para las familias comunes porque, de hecho, es un conducto persuasivo
para los patrocinadores que sufragan su costo? Él sabe mucho sobre el niño. ¿Transmite esta
información a los padres del niño? ¿A una red publicitaria? ¿A la empresa que lo fabrica?

Las personas que aman a sus mascotas a menudo citan la compañía como uno de los
placeres de la relación. Cuando estás fuera con tu perro (o en casa con tu gato) no estás solo.
Tampoco estás solo cuando estás con tu compañero robot. Pero no está claro con quién estás.

notas
1 En este capítulo, asumo que los robots no son sensibles. No tienen una experiencia consciente
de sí mismos. Sin embargo, son capaces de imitar ser sensibles y tener emociones. Muchos
especialistas en robótica y otros han argumentado que las máquinas son capaces, algún día, de
volverse conscientes. No deseo discutir ese punto aquí, y la mayoría está de acuerdo en que los
robots de hoy (y del futuro cercano), aunque parezcan notablemente conscientes, no tienen lo
que consideraríamos sentimientos, autoconciencia, conciencia y
pronto.

2 Véase (Archer, 1996) sobre por qué amamos a las mascotas.

Referencias
AFP-JIJI. (2015). ¿Una vida después de la muerte para el mejor amigo robot del hombre? Tiempos
de Japón. www.japantimes.co. jp/news/2015/02/25/business/tech/afterlife-mans-best-robot-friend/#.
WQnDenm1suU
Machine Translated by Google

¿El perro robot busca para quién? 23

Arquero, J. (1996). ¿Por qué la gente ama a sus mascotas? Evolución y comportamiento humano, 18(4),
237–259. doi: 10.1016/s0162–3095(99)80001–4
Arkin, RC, Fujita, M., Takagi, T. y Hasegawa, R. (2003). Una base etológica y emocional para la interacción humano-
robot. Robótica y Sistemas Autónomos, 42(3–4), 191–201. doi: 10.1016/S0921–8890(02)00375–5 Breazeal, C.
(2011). Robots sociales para aplicaciones de salud. Documento presentado en la Conferencia Internacional Anual
2011 de la Sociedad de Ingeniería en Medicina y Biología del IEEE, del 30 de agosto al 3 de septiembre.

Caló, R. (2009). La gente puede ser tan falsa: una nueva dimensión de la privacidad y la tecnología. Penn St. L. Rev.,
114(3), 809–855.
Cullen, H., Kanai, R., Bahrami, B. y Rees, G. (2014). Diferencias individuales en las atribuciones antropomórficas y la
estructura del cerebro humano. Neurociencia social cognitiva y afectiva, 9(9), 1276–1280. doi: 10.1093/escaneo/
nst109
Cariño, K. (2017). “¿Quién es Johnny?” Encuadre antropomórfico en la interacción, integración y política humano-robot.
En GBP Lin, K. Abney y R. Jenkins (Eds.), Robot ética 2.0. Oxford: Prensa de la Universidad de Oxford.

Donath, J. (2004). Mascotas artificiales: los comportamientos simples provocan apegos complejos. En M. Bekoff (Ed.),
La enciclopedia del comportamiento animal, vol. 3 (págs. 955–957). Westport, Connecticut: Greenwood Press.
Donath, J. (2007). 1964 Ford Halcón. En S. Turkle (Ed.), Objetos evocativos (págs. 153–161).
Cambridge, MA: MIT Press.
Donath, J. (2011). Folletos, pinturas y programas: Reproducción fiel y generatividad desordenada en los dominios físico
y digital. En T. Bartscherer & R. Coover (Eds.), Códigos de cambio: pensar a través de la tecnología digital en las
humanidades y las artes. Chicago: Prensa de la Universidad de Chicago.

Eisenberg, N. y Miller, PA (1987). La relación de la empatía con lo prosocial y afines


comportamientos Boletín Psicológico, 101(1), 91–119.
Friedman, B., Kahn, PH, Jr. y Hagman, J. (2003). ¿Compañeros de hardware?: Lo que revelan los foros de discusión
en línea de AIBO sobre la relación humano-robótica. Ponencia presentada en las Actas de la conferencia SIGCHI
sobre Factores Humanos en Sistemas de Computación, Ft. Lauderdale, Florida, Estados Unidos

Fujita, M. (2004). Sobre la activación de las comunicaciones humanas con el robot tipo mascota AIBO. Actas del IEEE,
92(11), 1804–1813.
Fujita, M. y Kitano, H. (1998). Desarrollo de un robot cuadrúpedo autónomo para entretenimiento robótico. Ponencia
presentada en la Primera Conferencia Internacional sobre Agentes Autónomos, febrero.

Ham, J. y Midden, CJH (2014). Un robot persuasivo para estimular la conservación de energía: la influencia de la
retroalimentación social positiva y negativa y la similitud de tareas en el comportamiento de consumo de energía.
Revista Internacional de Robótica Social, 6(2), 163–171. doi: 10.1007/s12369–013–0205-z

Ham, J., Bokhorst, R., Cuijpers, R., van der Pol, D. y Cabibihan, J.-J. (2011). Hacer que los robots sean persuasivos: la
influencia de combinar estrategias persuasivas (mirada y gestos) por parte de un robot narrador en su poder
persuasivo. Ponencia presentada en Social Robotics, Third International Conference, ICSR, Ámsterdam, Países
Bajos, 24 y 25 de noviembre.
Hartzog, W. (2015). Robots injustos y engañosos. Revisión de la Ley de Maryland, 74(785).
Horowitz, A. y Hecht, J. (2014). Mirando a los perros: pasando del antropocentrismo al canid umwelt. En Cognición y
comportamiento del perro doméstico (págs. 201–219). Berlín: Springer.
Johnstone, B. (2000). California soñando al estilo Sony. Revisión de tecnología, 103, 72–79.
Kaplan, F. (2000). Criaturas libres: El papel de la inutilidad en el diseño de mascotas artificiales. Papel
presentado en el 1er taller de Edutainement.
Machine Translated by Google

24 Judit Donath

Kim, E. (2016). Echo y Alexa de Amazon podrían agregar $ 11 mil millones en ingresos para 2020. Business
Insider, 23 de septiembre.
Kondo, M. (2014). La magia de ordenar que cambia la vida: el arte japonés de ordenar y organizar. Berkeley,
CA: Prensa de diez velocidades.
Kopytoff, I. (1986). La biografía cultural de las cosas: la mercantilización como proceso. En un.
Appadurai (Ed.), La vida social de las cosas. Cambridge: Prensa de la Universidad de Cambridge.
Kretschmer, A. (2000). Ritos mortuorios para objetos inanimados: El caso de Hari Kuyÿ. Japa
Diario nese de Estudios Religiosos, 27(3–4): 379–404.
Marinelli, L., Adamelli, S., Normando, S. y Bono, G. (2007). Calidad de vida del perro mascota: Influencia del
dueño y características del perro. Ciencia aplicada del comportamiento animal, 108(1–2), 143–156. doi:
10.1016/j.applanim.2006.11.018
Melson, GF, Kahn, Jr., PH, Beck, A., Friedman, B., Roberts, T., Garrett, E. y Gill, BT
(2009). El comportamiento de los niños hacia y la comprensión de los perros robóticos y vivos. Revista
de Psicología del Desarrollo Aplicada, 30(2), 92–102. doi: 10.1016/j.appdev.2008.10.011 Mori, M. (2012).
El valle inquietante [Del campo], trad. KF Kageki y N. Kageki.
Revista IEEE Robotics & Automation, 19(2), 98–100. doi: 10.1109/mra.2012.2192811 Niculescu, A., van
Dijk, B., Nijholt, A., Li, H., & See, SL (2013). Hacer que los robots sociales sean más atractivos: los efectos
del tono de voz, el humor y la empatía. Revista Internacional de Robótica Social, 5(2), 171–191.

Pogue, D. (2001). Mirando a Aibo, el Perro Robot. New York Times, 25 de enero. www. nytimes.com/
2001/01/25/technology/ looking-at-aibo-the-robot-dog.html Rots, AP (2015). Bosques sagrados, nación
sagrada: el paradigma ambientalista sintoísta y el redescubrimiento de “Chinju no Mori”. Revista japonesa de
estudios religiosos, 42 (2), 205–233.

Rowling, JK (1999). Harry Potter y la cámara de los secretos. Nueva York: Scholastic Inc.
Siegel, M., Breazeal, C. y Norton, MI (2009). Robótica persuasiva: La influencia del género robot en el
comportamiento humano. Documento presentado en la Conferencia internacional sobre robots y sistemas
inteligentes IEEE/RSJ 2009 sobre robots y sistemas inteligentes.
Sproull, L., Subramani, R., Walker, J., Kiesler, S. y Waters, K. (1996). Cuando la interfaz es una cara.
Interacción humano-computadora, 11, 97–124. doi: 10.1207/s15327051hci1102_1 Tam, K.-P., Lee, S.-L.
y Chao, MM (2013). Salvar al Sr. Naturaleza: el antropomorfismo mejora la conexión y la protección hacia la
naturaleza. Revista de Psicología Social Experimental, 49(3), 514–521. doi: 10.1016/j.jesp.2013.02.001
Turkle, S. (2007). Autenticidad en la era de los acompañantes digitales. Estudios de interacción, 8(3),

501–517.
Turkle, S. (2011). Objetos evocadores: Cosas con las que pensamos. Cambridge, MA: MIT Press.
Waytz, A., Cacioppo, J. y Epley, N. (2014). ¿Quién VE AL HUMANO? La estabilidad e importancia de las
diferencias individuales en el antropomorfismo. Perspectivas sobre la ciencia psicológica: una revista de
la Asociación de Ciencias Psicológicas, 5(3), 219–232. doi: 10.1177/1745691610369336

Weizenbaum, J. (1966). ELIZA: Programa informático para el estudio de la comunicación en lenguaje natural
entre hombre y máquina. Comunicaciones de la ACM, 9(1), 36–45.
Weizenbaum, J. (1976). El poder de la computadora y la razón humana. San Francisco: WH Freeman.
Weizenbaum, J. (1977). Las computadoras como “terapeutas” [carta al editor]. Ciencia, 198 (4315),
354–354.
Wu, T. (2016). Los comerciantes de atención: la lucha épica para meterse en nuestras cabezas. Nueva York:
Knopf.
Machine Translated by Google

3
AUTO EN EL BUCLE: BITS,
PATRONES Y VÍAS
EN EL YO CUANTIFICADO
Natasha Dow Schull

¿Cuál es el tipo de ser al que aspiramos?


—Michel Foucault (1984)

Carecemos tanto del aparato físico como mental para hacer un balance de nosotros mismos.
Necesitamos la ayuda de las máquinas.
—Gary Lobo (2010)

En 1990, justo cuando las tecnologías digitales de la información y la comunicación se


generalizaban, el filósofo francés Gilles Deleuze (1992) sugirió que los recintos arquitectónicos,
los arreglos institucionales y las reglas posturales de las sociedades disciplinarias estaban dando
paso a las tecnologías en red de “control”. sociedades”, que implican codificación, evaluación y
modulación continuas. El último escenario tiene un extraño parecido con el mundo intensivo de
rastreo de hoy en día, en el que los gobiernos y las corporaciones controlan y extraen cada vez
más los cuerpos, los movimientos y las elecciones de los ciudadanos y consumidores. La
capacidad de recopilar, almacenar y analizar datos fisiológicos, de comportamiento y de
geolocalización de las personas ha llegado a afectar una amplia gama de dominios, desde la
formulación de políticas hasta la vigilancia, el marketing corporativo hasta la atención médica, el
entretenimiento y la educación.
Los académicos que trabajan en el campo emergente de los estudios de datos críticos
argumentan que el seguimiento de datos ha llegado a “penetrar y ejercer poder sobre todo tipo
de formas de vida” en sociedades que están sólidamente interconectadas digitalmente (Iliadis &
Russo, 2016, p. 2). Algunos enfatizan las “relaciones asimétricas entre aquellos que recopilan,
almacenan y extraen grandes cantidades de datos y aquellos a quienes se dirige la recopilación
de datos” (Andrejevic, 2014, p. 1673; ver también Beer, 2009; boyd & Crawford, 2012; van Dijck,
2014). Los individuos realizan “trabajo digital” no remunerado e invisible en su papel como fuentes
de datos (Lupton, 2016, p. 118; Till, 2014); sus flujos de datos se convierten en "biocapital" para aprovechar y
Machine Translated by Google

26 Natasha Dow Schull

explotar (Rabinow & Rose, 2006, p. 203). Los yoes son “cortados y troceados en partes
descontextualizadas, y comprados y vendidos”, escriben los antropólogos Neff y Nafus (2016,
p. 62). Otros se enfocan en las amenazas que los algoritmos analíticos de datos representan
para la agencia humana, ya que “las operaciones, decisiones y elecciones que antes se
dejaban a los humanos se delegan cada vez más a los algoritmos analíticos, que pueden
asesorar, si no decidir, sobre cómo deben interpretarse los datos y qué acciones deben
tomarse”. debe tomarse como resultado” (Mittelstadt et al., 2016, p. 9; Beer, 2009; Lash, 2007; Mackenzie, 2005)
Sin embargo, incluso a medida que se desarrolla una acalorada discusión académica y
pública sobre los peligros de las tecnologías de datos, las personas han invitado a los sensores
a recopilar información sobre ellos a través de aplicaciones móviles y dispositivos en red,
convertir esta información en señales eléctricas y ejecutarla a través de algoritmos programados
para revelar información y, a veces, informar las intervenciones sobre su comportamiento
futuro. El mundo contemporáneo se caracteriza por “una intimidad de vigilancia que abarca
patrones de generación de datos que nos imponemos a nosotros mismos”, escribe el
antropólogo Joshua Berson (2015, p. 40). A pesar de lo profética que fue la visión del futuro
de Deleuze, Berson señala que el filósofo no anticipó el grado en que el seguimiento y la
codificación de cuerpos y actos se incorporarían al proyecto de autoformación y autocuidado.

Michel Foucault (1988, p. 18) distinguió entre tecnologías de poder, “que determinan la
conducta de los individuos y los someten a ciertos fines
o dominación, una objetivación del sujeto”, y tecnologías del yo— mediante las cuales los
individuos realizan “operaciones sobre sus propios cuerpos y almas, pensamientos, conductas
y forma de ser, para transformarse a sí mismos a fin de alcanzar un determinado estado de
felicidad, pureza, sabiduría, perfección o inmortalidad”. Estos últimos adoptan una forma
material literal en los ensamblajes de sensores, algoritmos analíticos y visualizaciones de
datos que constituyen las prácticas contemporáneas de autoseguimiento. Este capítulo pone
entre paréntesis la creciente literatura sobre cómo el seguimiento de datos sirve como una
tecnología de poder para explorar cómo también puede servir como una tecnología del yo,
como un medio, un medio y un cifrado para la experiencia humana, la autocomprensión y el
sentido. de agencia Tal investigación es un esfuerzo que vale la pena no solo en sí mismo
sino también porque permite una comprensión más rica de la datificación y su dinámica, y una
crítica más efectiva de sus asimetrías y descontentos. Mi punto de entrada para esta
exploración es la comunidad Quantified Self (QS).

Cuantificate a ti mismo

Hace casi una década en el Área de la Bahía de San Francisco, pequeños grupos de
personas con conocimientos tecnológicos y existencialmente inquisitivas comenzaron a
reunirse y reflexionar sobre lo que podrían aprender de los dispositivos de recopilación de
datos y el software analítico sobre los misterios mundanos, la dinámica y los desafíos de sus
vidas. vida cotidiana: efectos secundarios de las drogas, trastornos del sueño, la asociación
entre la dieta y la productividad. Uno a la vez, "mostraban y contaban" sus experimentos en
autodatos, entregando presentaciones de 10 minutos con guión para responder a un trío de preguntas marco: ¿Q
Machine Translated by Google

Yo en el bucle 27

¿hiciste? ¿Cómo lo hiciste? ¿Qué aprendiste? Después de compartir sus experiencias, los oradores
considerarían preguntas y solicitarían comentarios de los asistentes.
El grupo recibió el nombre de Quantified Self (QS) y, evocando la máxima de Delfos "conócete a ti
mismo", los cofundadores Gary Wolf y Kevin Kelly, ambos exeditores de la revista Wired , les dieron el
eslogan "autoconocimiento a través de los números" . A través de redes sociales como meetup.com,
QS estableció rápidamente una presencia en las principales áreas urbanas de América del Norte y
Europa, atrayendo a los recién llegados a través de un sitio web que presenta videos de las
presentaciones de los miembros, un tablero de mensajes donde las personas pueden hablar sobre
herramientas de seguimiento y enlaces a sitios locales. reuniones Hoy, Wolf describe al grupo como
“una afiliación vagamente organizada de auto-seguidores y fabricantes de herramientas que se reúnen
regularmente para hablar sobre lo que estamos aprendiendo de nuestros propios datos” (2016, p. 67).

QS ganó prominencia nacional en los Estados Unidos en abril de 2010, cuando un ensayo de
formato largo de Wolf, "La vida basada en datos", se publicó como el artículo principal en la revista
dominical del New York Times, una figura humana en un collage de papel cuadriculado, calibradores
y reglas plegables que aparecen en la portada. El artículo proponía que los datos podrían servir no
solo como un medio para inspeccionar la vida de los demás (como lo haría un actuario, un legislador o
un funcionario de asistencia social), sino también como un nuevo tipo de espejo digital en el que ver y
aprender cosas nuevas sobre nosotros mismos. “Los humanos tenemos puntos ciegos en nuestro
campo de visión y lagunas en nuestro flujo de atención”, escribió Wolf, “nos vemos obligados a guiarnos
por conjeturas. Vamos con nuestro instinto. Es decir, algunos de nosotros lo hacemos. Otros usan datos” (2010).
En los picos de frecuencia cardíaca o las caídas del estado de ánimo registrados a lo largo del tiempo,
las personas podían comprender mejor cómo se vieron afectados por hábitos o circunstancias
aparentemente triviales que confiar en el consejo de expertos, las conjeturas o incluso la intuición. “Si
desea reemplazar los caprichos de la intuición con algo más confiable, primero debe recopilar datos”,
insistió Wolf. “Una vez que conoces los hechos, puedes vivir de acuerdo con ellos”. En esta fórmula de
"hágalo usted mismo" para el autocuidado, la tecnología de uso intensivo de datos, como los sensores
automatizados, las métricas enumerativas y la correlación estadística, se presentaron como
herramientas para una buena vida.
La mayoría de los que publicaron en la sección de comentarios de la historia expresaron su desdén
por la vida intensamente rastreada y monitoreada que Wolf había prescrito, diagnosticándola como
una "pérdida de humanidad". Una mujer de Nueva Jersey preguntó: "¿Cuándo llegamos al punto en
que todo lo que estamos haciendo es registrar datos para una vida que no se está viviendo?" Un lector
de Kansas se preguntaba qué experiencia vivida nos podríamos perder al detenernos en “cuántas
lamidas se necesitan para comer una piruleta”, mientras que otro de Filadelfia escribió que “no somos
máquinas y ninguna cantidad de datos nos convertirá en eso, y ninguna cantidad

de datos nos dará todas las respuestas a los misterios más grandes”. La respuesta general fue que un
énfasis excesivo en lo que se puede medir degrada la existencia, convirtiendo la materia no cuantificable
de la vida en un ruido que hay que filtrar.
Un sentimiento similar recorrió la corriente de perfiles periodísticos únicos de auto-seguidores
extremos que aparecieron entre 2010 y 2013 en las páginas de
Forbes, Vanity Fair e incluso el propio Wired , relatos que típicamente retrataban a sus sujetos como
caricaturas del impulso tecnológico y el individualismo estadounidense.
Machine Translated by Google

28 Natasha Dow Schull

(por ejemplo, Hesse, 2008; Morga, 2011; Bhatt, 2013). Basándose en gran medida en estas
piezas, el crítico cultural Evgeny Morozov (2013) lanzó un ataque mordaz contra la
comunidad del yo cuantificado, alegando que su abandono de la reflexividad narrativa en
favor de los números sin alma era tanto deshumanizante como políticamente problemático.
En una línea similar, los científicos sociales se han apresurado a señalar a los auto-
seguidores como figuras ejemplares de la biopolítica y la gubernamentalidad contemporáneas,
que gestionan y optimizan responsablemente sus vidas como engranajes de una rueda
neoliberal (Lupton, 2016; Ajana, 2017; Depper & Howe, 2017). ; Rich & Miah, 2017; Oxlund, 2012).
Sin embargo, un cuerpo emergente de investigación etnográfica ha comenzado a
descorrer el telón sobre una realidad más matizada, desafiando la idea de que los yoes
cuantificados están necesariamente empobrecidos, despolitizados o explotados
existencialmente. “QS es uno de los pocos lugares donde la pregunta de por qué los datos
son importantes se plantea de maneras que van más allá de la publicidad o el control del
comportamiento de los demás”, escriben Nafus y Sherman (2014, p. 1788). Como reconocen
fácilmente los auto-seguidores, la cuantificación “rara vez produce una verdad definitiva, una
representación uno a uno de la propia vida o la propia identidad” (Sharon, 2017); en cambio,
implica una "objetividad situada" (Pantzar & Ruckenstein, 2017) en la que ciertas experiencias
previas, entendimientos y expectativas compartidas cobran importancia. Sherman (2016) ha
descrito el autoseguimiento como una práctica estética en la que fragmentos del yo,
extraídos y abstraídos, se convierten en material para ver y experimentar el yo de manera
diferente. Los datos son una especie de “transductor” que conserva solo algunas cualidades
de lo que se mide, de modo que “hay mucho espacio para que la gente maniobre en la
traducción imperfecta” (Neff & Nafus, 2016, p. 25). Mirar gráficos y visualizaciones de datos
personales puede desencadenar una reflexión crítica y plantear nuevas preguntas para
seguir; los datos no desplazan ni congelan, sino que mejoran y animan las autonarrativas
(Ruckenstein, 2014, van den Eede). La autocuantificación “establece un laboratorio del yo”
en el que “los dispositivos y los datos contribuyen a nuevas formas de ver el yo y dar forma
a la autocomprensión y la autoexpresión” (Kristensen & Ruckenstein, 2018, p. 2). Dicha
investigación aborda el autoseguimiento como una forma de experimentación abierta en la
subjetividad dataficada que es potencialmente no conforme, creativa y reflexiva, con
posibilidades individuales y colectivas aún indeterminadas.
Esta experimentación pasa a primer plano en las siguientes escenas y conversaciones,
que se desarrollaron entre los participantes en una reunión de Yo Cuantificado de dos días
en 2013.1

Ver la señal
Después de que los más de 400 asistentes a la conferencia se instalaron en sus asientos
en el aireado salón principal de un hotel de Ámsterdam para un fin de semana de
presentaciones y debates, Gary Wolf subió al escenario para abrir los procedimientos con
una pregunta: ¿Qué es exactamente un yo cuantificado ? Claramente, la "cuantificación"
implicaba recopilar y calcular datos sobre nosotros mismos, pero "yo", aventuró, era un
término más ambiguo. ¿Cómo entender el yo en el yo cuantificado? ¿Qué le sucede al yo
cuando lo cuantificamos, cuando “la computación llega hasta el final”?
Machine Translated by Google

Yo en el bucle 29

Robin Barooah, un diseñador de tecnología británico que ahora trabaja en Silicon Valley,
ofreció su respuesta a esa pregunta en la primera sesión de mostrar y contar después del
discurso de Wolf. Con su mono de lana característico, usó una combinación de visualización
de datos e historia personal para compartir cómo había medido su estado de ánimo. Menos
fugaz que la emoción pero no tan arraigado como el temperamento, “el estado de ánimo es
misterioso”, señaló. Robin se había sentido atraído por un enfoque cuantificado del estado de
ánimo porque pensó que podría ayudarlo a encontrar conexiones no intuitivas ni obvias entre
las circunstancias de su vida, los hábitos diarios y el estado de ánimo. En 2008, un año que
describió como el más doloroso de su vida adulta, encontrar estas conexiones fue una cuestión
de necesidad más que de curiosidad o autoexperimentación: “Tenía que empezar a examinar
mi vida y decidir qué hacer”.
“Esto no es un análisis estadístico”, aseguró a la audiencia mientras señalaba la línea de
tiempo de los datos proyectados en la pantalla grande detrás de él, consciente de que no todos
los asistentes a la conferencia conocían esa técnica. La línea de tiempo abarcaba cuatro años
y trazaba dos variables cuya relación con su estado de ánimo tenía curiosidad por saber:
encima de la línea, en azul, aparecía la cantidad de tiempo que había meditado diariamente,
registrado con un cronómetro;2 debajo de la línea, en rojo, apareció el número de entradas que
había hecho cada día en un calendario en línea creado para seguir su estado de ánimo (ver Figura 3.1).
La elección de trazar cuántas entradas estaba poniendo en el diario en lugar de alguna medida
de su contenido semántico: una calificación de la agitación relativa o

FIGURA 3.1 Robin Barooah en el escenario de QS 2013, explicando su línea de tiempo de datos
(captura de pantalla del video de presentación, disponible en línea en https://
vimeo.com/66928697).
Machine Translated by Google

30 Natasha Dow Schull

la calma expresada en sus palabras, por ejemplo, fue deliberada: era una forma de medir la práctica
de escribir un diario y ver qué podría revelar sobre su estado de ánimo.
Lo que le sorprendió ver cuando finalmente (años más tarde) graficó sus datos en minutos meditados
y entradas escritas fue la misteriosa correspondencia entre esas dos variables. “El acoplamiento
entre las dos líneas es muy claro”, nos dijo. En un día cualquiera, más meditación se reflejó en más
diarios, y viceversa. La estrecha correspondencia le dio a su línea de tiempo el aspecto de una
mancha de tinta de Rorschach volteada de lado, con la mitad superior en azul y la mitad inferior en
rojo.
Robin llamó la atención de la audiencia sobre momentos particularmente volátiles en los
promedios móviles a lo largo de la línea de tiempo: “esta caída es donde estaba volando mucho”;
“Este canal sin ningún color es un momento de ansiedad y depresión paralizantes”. Los viajes y los
principales acontecimientos de la vida, incluida la muerte de su padre, desacoplaron rutinas que de
otro modo estarían correlacionadas o disminuirían su simetría. Señaló un punto en la línea de tiempo
con un gran glaciar de actividad roja debajo y explicó que un nuevo régimen psicofarmacológico
había estimulado un período de diario intensivo. “Una gran cantidad de narrativa comenzó a
desarrollarse en ese momento”, recordó Robin. El color rojo desaparece por completo de su línea
de tiempo en noviembre de 2012, momento en el que la intensidad de su ansiedad se había resuelto
en su mayor parte y ya no sentía “el mismo impulso” de escribir en su diario: “fue un apoyo que
requirió esfuerzo, eso involucró reflexionar sobre cómo me sentía, y básicamente me sentí mejor no
hacerlo más”.
Contemplando la visualización, Robin revisó lo que había aprendido. La superposición gráfica
de rutinas de seguimiento dispares, aunque no una representación directa de su estado de ánimo,
fue profundamente reveladora: “Es una especie de señal, una que no había visto antes; refleja mi
nivel de activación, mi nivel de energía, mi capacidad para relacionarme con el mundo… está ahí
como un envoltorio alrededor de toda mi vida, afectando todo lo que hago”. Como ingeniero, Robin
usa la palabra "señal" para describir la transmisión de información, en este caso, la transmisión de
energías que afectan poderosamente su experiencia vivida en una forma que puede percibir y
asimilar. La señal, comunicada en una silueta cambiante de valores numéricos, está "más allá de
las palabras... es algo muy profundo que finalmente se convierte en pensamiento y se convierte en
acción".

Discutiendo los datos


Al día siguiente, una sesión de trabajo sobre el tema de los datos y la identidad comenzó con una
serie de preguntas planteadas por su organizadora, Sara Watson, autora de seguimiento y escritora
tecnológica que recientemente había completado una maestría (tesis) sobre las prácticas de QS
2013: ¿Qué ¿Significa tener datos sobre mí mismo, una representación digital, numérica y binaria
de mí mismo? ¿Y cuál es mi relación con esos datos? ¿Qué significa ser un ser humano
interactuando con una cosa binaria digital que son datos?
Whitney, una autora de seguimiento que con frecuencia aportaba artículos que invitaban a la
reflexión en el blog Cyborgology, sugirió que los datos servían como material para las autonarrativas:
“hacemos historias sobre nosotros mismos a partir de los datos, para dar sentido a nuestras vidas”.
Algunos en la sala retrocedieron, queriendo preservar la facticidad de los datos como expresión de
una verdad objetiva: los datos no eran una historia “inventada”; en todo caso, QS desnarrativizó el yo.
Machine Translated by Google

Yo en el bucle 31

Joshua, un capitalista de riesgo barbudo de poco más de treinta años de California,


elaboró esta idea: “El yo puede ser abrumador como un todo integrado.
Al hacer QS, puede desagregar varios aspectos de sí mismo, trabajar solo en esos, tal vez
dejarlos ir, volver a colocarlos... Le quita una pequeñas
carga increíble
porciones
cuando
y decir,
puede todo
quitar
lo demás
estas es
complicado, veamos esto.” Robin intervino para reforzar este punto: “El seguimiento no es
aditivo, es sustractivo: trabajas en alguna pregunta sobre ti mismo en relación con esta
cosa producida por una máquina y sabes que se detendrá; después, te queda una gama
más estrecha de atribuciones que puedes hacer sobre tu comportamiento o tus sentimientos;
ha eliminado la incertidumbre y obtenido una especie de liberación: puede seguir adelante
con su vida, con una nueva perspectiva”. Si este proceso de extracción y bitificación fuera
una forma de auto-narración, concluyó Joshua, entonces deberíamos llamarlo “autobiografía
cuantitativa”.

Joerg, un activista alemán cuyos antecedentes en negocios y filosofía complementaron


su búsqueda de una ética basada en datos en el mundo corporativo, especificó aún más el
término “narrativa” en relación con la autocuantificación: “Las expresiones numéricas de
nosotros mismos son inherentemente sintácticas, no semántico.” El poder de los datos
personales radica en la gramática relacional que surgió a través de sus puntos de datos,
no en las intenciones del autor de los "yoes fenoménicos trascendentes" que se narran a
sí mismos. Su posición se hizo eco de la crítica de Morozov y la contrarrestó de inmediato:
sí, la autocuantificación se apartaba de los modos de narración humanistas tradicionales,
pero eso no la convertía en deshumanizante; más bien, era vital, vivificante.
Un antropólogo estadounidense empleado en una importante empresa de tecnología
sugirió que el arte, en lugar de la narrativa, podría ser una mejor metáfora para describir lo
que hacen los seres con sus datos. “Tal vez el seguimiento es como dibujarte a ti mismo”,
reflexionó otro participante en la sesión. “Tienes que completar los detalles, es una especie
de autorretrato, un arte.” Robin, desde su asiento junto a la pared lateral, asintió con la
cabeza. Comentó que una vez caracterizó su seguimiento como una especie de "espejo
digital", pero ahora sintió que la metáfora era inexacta, "porque los espejos representan
una imagen proyectada completa, que no es lo que obtenemos de nuestros bits de datos".
Volviendo al punto anterior que él y Joshua habían planteado, sugirió que el valor de los
puntos de datos rastreados en el tiempo es la estrechez de la representación que brindan:
“Los datos son en realidad solo números, símbolos, no reflejan algo que ya se conoce”.
existe en el mundo como lo hace un espejo; en cambio, nos muestra un modelo de algún
aspecto limitado y extraído de nosotros mismos”. Robin había llegado a preferir la metáfora
del autorretrato: "Lo que estamos haciendo cuando rastreamos y trazamos nuestros datos
es centrarnos en una parte de nuestras vidas y construir lentamente ese retrato a medida
que recopilamos datos sobre él".
Sara, nuestra moderadora, presionó al grupo para que especificara más la metáfora: si
no era fotorrealista, ¿era el retrato expresionista? ¿Impresionista? ¿Pixelado? “Creo que
tendría que ser un mosaico algorítmico, con composición, color y patrones cambiantes, un
retrato en constante cambio”. Robin sugirió. “¿Pero de qué manera cambia?” preguntó un
compañero rastreador, expresando cierta ambivalencia sobre su relación con sus datos.
“Solo miro fragmentos de mí mismo porque es todo lo que puedo manejar. Si es
Machine Translated by Google

32 Natasha Dow Schull

un retrato, entonces es un retrato con muy mala iluminación... ¿No es el objetivo, en última instancia,
arrojar una luz más brillante sobre nosotros mismos? ¿El retrato alguna vez gana una resolución más
completa, se vuelve más sólido, más como un verdadero espejo?
Joerg planteó la pregunta como una tensión entre la autocreación y la autodestrucción: “Si comienzas
a descomponerte pieza por pieza, podría conducir a la desagregación, a la falta de identidad, a vernos a
nosotros mismos como un gran flujo de datos… ¿O puede, de alguna manera, hacernos sentir más
sólidos como nosotros mismos en el mundo? Robin aventuró que no había

contradicción entre autohacerse y deshacerse:

Creo que son puntos de vista consistentes realmente. Si la autocuantificación, el rompernos a


nosotros mismos en pedazos, nos permite crear nuevas experiencias de nosotros mismos,
entonces esas experiencias son puertas de entrada a nuevos grados de libertad en la forma de actuar.

El tipo de retrato que está en juego en el yo cuantificado, sugirió, “te permite imaginar nuevos tipos de
yo y moverte en nuevas direcciones; ya no estás atrapado en un conjunto limitado de caminos”. El
autoseguimiento, al final de la discusión, parecía ser un medio de liberación no solo de los callejones sin
salida de la incertidumbre sino también de los de la certeza.

Yoes de la serie temporal

Eric Boyd, un ingeniero mecánico conocido en la comunidad de QS por diseñar colgantes que destellan
al ritmo de los latidos del corazón y la cadencia vocal de los usuarios,3 presentó un Show and Tell en el
segundo día de la conferencia, compartiendo ideas sobre sus "ritmos diarios" obtenidos de su
(descontinuado) Nike Fuelband, un acelerómetro de goma que se usa en la muñeca. Admitió que se
sintió atraído por el "factor de brillo geek" del dispositivo de consumo y sus luces coloridas que parpadean
secuencialmente, pero por lo demás no estaba impresionado. “Los gráficos de la aplicación son bonitos
pero en su mayoría inútiles; ni siquiera puedes decir a qué hora del día sucedieron las cosas. Fue muy
frustrante lo invisible que era mi actividad”. Las características analíticas proporcionadas a los usuarios
ofuscaron su actividad como tantos "puntos de combustible" inescrutables, una medida de actividad
propiedad de Nike.

Queriendo examinar sus patrones diarios más de cerca, Eric interactuó con el lenguaje de
programación orientado a objetos de Fuelband4 para introducir los valores brutos del acelerómetro en
una hoja de cálculo, representando una celda para cada minuto del día y una columna para cada día del
mes: "1440 filas por 30 columnas: eso es una gran cantidad de datos que muestran lo que estaba
haciendo y cuándo". Pudo ver cuando se despertaba por la noche para ir al baño y que su ritmo rápido
habitual se volvía más lento cuando caminaba con su novia. La velocidad de su caminar era un problema
en su relación, admitió, "y ayudó a ver que en realidad era solo un 30 por ciento más lento".

El autocontrol de Eric se refería a hábitos y ritmos de vida más prosaicos que los valles depresivos y
picos intensos en juego en Robin, pero las características centrales de
Machine Translated by Google

Yo en el bucle 33

la auto-indagación eran lo mismo: una pregunta; una investigación que asignó una autoridad
epistemológica significativa a los datos y sus tecnologías; revelaciones visuales; descubrimientos
inesperados. “La razón por la que comienzas a rastrear tus datos es que tienes cierta incertidumbre
sobre ti mismo que crees que los datos pueden iluminar”, me dijo Eric. “Se trata de introspección,
reflexión, ver patrones y llegar a comprender quién eres y cómo podrías cambiar”. Su
"introspección", como la de Robin, comienza no con un giro hacia adentro sino hacia afuera hacia
la transmisión de datos de un dispositivo: una extracción de información, una cuantificación, una
visualización.
“Cuando nos cuantificamos a nosotros mismos, no existe el imperativo de ver a través de
nuestra existencia diaria una verdad enterrada en un nivel más profundo”, escribió Wolf (2010). “El
yo cuantificado no es una exploración lingüística como el psicoanálisis”, repite Eric, “es una
exploración digital, y lo que estás explorando se compone de muchos pequeños fragmentos y momentos”.
Los fragmentos y momentos, que se acumulan en hábitos, ritmos y tendencias, son la “materia”
del yo; sus efectos no pueden conocerse a través de los giros semánticos del lenguaje que se
desarrollan en el momento de un encuentro humano (como en la transferencia terapéutica); más
bien, deben pasar por una serie de sensores, representaciones numéricas y procesos algorítmicos
que detectan sus patrones relacionales a lo largo del tiempo (Nafus, 2016, p. xviii; Sherman, 2016;
Day & Lury, 2016). “Es posible que no obtenga ningún conocimiento en una semana o incluso en
un mes”, dice Eric, “pero con el tiempo puede ver algo importante sobre usted mismo; necesitas
una vista que sea más larga que cualquier momento en el que te encuentres”.
Hace unos años, preocupado por el cambio climático, Eric decidió hacer un seguimiento de
sus hábitos de conducción. Sabía cuántas millas estaba haciendo en su vehículo, pero no estaba
seguro de cuál de sus rutinas (ir al trabajo, hacer viajes por carretera, salir a socializar) era la más
importante. “Así que hice un seguimiento de cada viaje en automóvil durante unos tres meses y
luego puse todo en una hoja de cálculo de Excel, con diferentes destinos en categorías para ver
qué conducía mis millas”. Aprendió que sus viajes diarios al trabajo, a solo unos pocos kilómetros
de distancia, eran el principal contribuyente a su kilometraje. “Mi trabajo era de solo unos 3,5 km,
por lo que no pensé que sería significativo, pero sumó porque lo hacía dos veces al día y, a
menudo, tenía que dar la vuelta a la manzana para encontrar estacionamiento. Entonces, la
acumulación de esos pequeños viajes sumó al menos tanto como los viajes por carretera y la
socialización”.
Al involucrar los datos y sus tecnologías para ayudar en su auto-indagación, Eric no pierde la
agencia sino que encuentra un nuevo tipo de agencia. “En nuestro mundo físico”, explica, “nuestros
poderes solo se extienden unos pocos metros, pero en la dimensión temporal somos
extremadamente efectivos, en realidad vamos a vivir mil millones de momentos o algo así. El
problema para nosotros es que nos resulta difícil ver la cantidad de poder que tenemos en el
tiempo porque nuestro sentido del tiempo es muy limitado; vamos por la vida un minuto a la vez”.
El seguimiento de datos y el análisis de series de tiempo "ofrecen una visión más amplia de
nuestro poder en el tiempo" al mostrar cómo nuestros hábitos, "las cosas que estamos haciendo
una y otra vez", se suman para afectar nuestras vidas de manera positiva y negativa. Como escribe
Wolf (2010), “sin una buena calibración del tiempo es mucho más difícil ver las consecuencias de
tus acciones”. A través del rastreo, Eric ha llegado a considerarse a sí mismo como un “yo de serie
temporal”, uno cuya verdad y consecuencias no son fijas, sino que están hechas de pequeñas acciones a lo largo del
Machine Translated by Google

34 Natasha Dow Schull

que tiene alguna medida de control; al igual que Robin, encuentra esta ventaja liberadora y
fortalecedora.

Yoes en el bucle
En los últimos cinco años, los académicos han buscado un vocabulario creativo para
describir cómo la datificación intensiva de la vida en las sociedades liberales occidentales
está alterando el yo. Algunos aplican la noción profética de Deleuze del individuo5 como un
archivo de rasgos, hábitos y preferencias que pueden ser sistemáticamente extraídos y
comercializados, reorganizados y comparados con los de otros. Harcourt (2015) le da un
giro al término, proponiendo que duodividual describe mejor “el objeto de la búsqueda
algorítmica de minería de datos de la era digital”, que, argumenta, no es tanto dividir a un
individuo en partes sino encontrar su “coincidencia” o “gemelo” digital. Muchos adoptan el
término doble de datos (Haggerty y Ericson, 2000) para nombrar a este doppel gänger
digital, mientras que para Horning (2012) el yo de datos describe mejor las versiones
virtuales de nosotros mismos que surgen a través de las redes sociales. “El escape sin
cuerpo da lugar a un proxy de datos, una figura abstracta creada a partir de la fusión de
rastros de datos”, escribe Smith (2016, p. 110). Greenfield (2016, p. 133) habla de la
"persona pixelada" como "un sujeto dividido en una granularidad más fina, pero cuyos
conjuntos de datos parciales también se pueden unir con otros". Pasando del registro de
datos al del algoritmo, Cheney-Lippold (2011, p. 165) describe las identidades algorítmicas
como "categorías de identidad [que] se infieren sobre las personas en función de su uso de
la web", mientras que Pasquale (2015, p. 39) argumenta que somos tratados como seres
algorítmicos o "conjuntos de puntos de datos sujetos a motores de reconocimiento de
patrones". A pesar de todos los sutiles matices y asimetrías que captura este conjunto de
neologismos sobre los procesos de fragmentación, amalgama y agregación a través de los
cuales los yoes se convierten en objetos y sujetos de poder en un mundo digitalmente
interconectado, son menos útiles cuando se trata de comprender cómo habitan los yos. ,
experimentan, reflexionan y actúan en sus vidas dataficadas.
Como hemos visto, en secuencias archivadas y sumas de vida bitificada, los selfers
cuantificados buscan traer a la conciencia los patrones y ritmos que definen su existencia y
que, sin las herramientas digitales, podrían permanecer como fuerzas inciertas por debajo
del umbral de la percepción.6 En este sentido , siguen la recomendación del estudioso de
los medios Mark Hansen (2015, p. 38) de que “forjamos conexiones” con las capacidades
maquínicas y los procesos microtemporales, incluso cuando evaden la “comprensión de
nuestra reflexión consciente y nuestra percepción sensorial”. La recopilación y el análisis de
datos técnicos, enfatiza (pág. 196), pueden usarse “no solo para anticipar nuestras
tendencias y susceptibilidades con fines de manipulación y explotación, sino también para
informarnos sobre estas tendencias y susceptibilidades y permitirnos actuar y en virtud de ellos.”
Si bien admitir formas maquínicas de inteligencia en las formas humanas de definir,
categorizar y conocer la vida corre el riesgo de perder la autonomía humana, también
conlleva la posibilidad de nuevas agencias humanas (Kristensen & Ruckenstein, 2018;
Kennedy et al., 2015; Neff & Nagy, este volumen). la ciencia y la tecnologia
Machine Translated by Google

Yo en el bucle 35

La experta Melanie Swan (2013, p. 95) propone que las epistemologías de big data, transpuestas
a la escala del individuo, brindan "una especie de perspectiva de cuarta persona" sobre el yo y,
en última instancia, un nuevo tipo de verdad: una eso “no es posible con los sentidos ordinarios”.
Esta verdad no corresponde a un yo fenomenológico clásico fundamentado en el tiempo y el
espacio sino a un “yo base de datos” (Schüll, 2016a, 2016b) que se extiende en el tiempo.
“Configuras este tipo de persona externa o versión de ti mismo, un avatar o compañero, o algo
así”, dijo un rastreador durante la sesión de trabajo de Watson en Amsterdam, recordando la
caracterización de Foucault (1998, p. 211) del autocuidado como “establecer una relación de uno
mismo con uno mismo”. “Había llegado a un lugar donde era necesario empezar a relacionarme
conmigo mismo”, dijo un miembro de QS a dos antropólogos (Kristensen & Ruckenstein, 2018, p.
9). “Se trata de encontrar una dirección, tomar conciencia y luego llegar a una comprensión
'sentida' de uno mismo”, dijo otro (p. 8).

Como Robin nos dijo anteriormente, los archivos de bits de datos personales, continuamente
recompuestos, pueden ser "puertas de entrada a nuevos grados de libertad en la forma de actuar".
El tipo de libertad que invoca aquí no es la libertad de la autonomía o el autodominio sino, más
bien, como Colin Koopman (2016, p. 45) ha caracterizado la filosofía y la vida de William James,
“la libertad en medio de la incertidumbre como el trabajo de uno mismo”. -transformación”, con el
yo entendido como “la actividad de recomposición reflexiva” (p. 47).
En el caso que nos ocupa, las herramientas de seguimiento digital y sus datos pueden convertirse
en parte del ciclo de la recomposición reflexiva, expresada como una práctica de "autobiografía
cuantitativa", "autorretrato continuo de composición cambiante" y el trazado gráfico computacional
de señales. "más allá de las palabras." Estas concepciones emergentes articulan bien la noción
de marco de este capítulo de "yo en el ciclo" (en sí misma una referencia al término de IA
"humano en el ciclo", en el que los operadores o usuarios humanos pueden alterar el resultado
de un evento o proceso computacional ) y se destacan como acompañantes importantes de los
neologismos académicos que buscan describir los yoes fragmentados, alienados y explotados
del mundo datificado.
Para James, la ética de la autotransformación implicaba “instigar alternativas, provocar
diferencias, volverse indisciplinado e incluso indisciplinable” (Koopman 2016, p. 43). Del mismo
modo, para los auto-seguidores, las métricas pueden servir para "desviarse de los cursos
prescritos, explorar límites y desafiar las reglas" (Sanders 2017, 21). Nafus y Sherman (2014, p.
1785) escriben sobre el autoseguimiento como una forma de “resistencia suave” que “siempre es
necesariamente parcial, firmemente arraigada en muchas de las mismas lógicas que dan forma
a las categorías de las que buscan escapar”. En lugar de descartar los rastreadores de autodatos,
como evitadores de vida y con inclinación robótica; como víctimas del capitalismo de datos y su
aparato de vigilancia; o como figuras sintomáticas de la subjetividad neoliberal y su ethos
emprendedor y de autodominio—podríamos considerarlos como pioneros en el arte de vivir con y a través de los da
Al invitar a las herramientas y epistemologías digitales a participar en su ética de
autotransformación, los selfers cuantificados obtienen nuevos métodos para aprehender, conocer
y habitar sus vidas y, potencialmente, para resistir, reutilizar y volver inciertos los proxies
normativos, las categorías de comportamiento y lógicas rectoras que buscarían conducir su
conducta por determinados caminos.
Machine Translated by Google

36 Natasha Dow Schull

notas
1 Este capítulo se basa en la investigación etnográfica realizada entre 2013 y 2017 en reuniones de QS en
Boston y Nueva York, así como en tres conferencias anuales. En estos eventos escuché, observé y hablé
informal y formalmente con los participantes; una vez en San Francisco y dos veces en Amsterdam, convoqué
y dirigí sesiones de conferencias.
Cuando hay grabaciones disponibles (propias o publicadas en línea), cito directamente a los selfers
cuantificados; en otros casos dibujo sobre notas de campo.
2 Barooah pasó a desarrollar una aplicación de meditación llamada Equanimity, junto con un flash
temporizador basado en navegadores de internet, disponible en www.meditate.mx.
La compañía de 3 Boyd, Sensebridge, ha diseñado el colgante Heart Spark, que destella al ritmo de los latidos
del corazón, mientras que Sound Spark destella junto con la cadencia de la voz; una tobillera con brújula
funciona en un registro háptico, vibrando para aumentar el sentido de la orientación.

4 Por lo general, tal maniobra implica romper la garantía de un producto y/o el acuerdo de términos de servicio,
pero en este caso, Nike ofreció a los usuarios avanzados una API para extraer la información.

5 Cabe señalar que existe una trayectoria conceptual diferente para el término dividual en antropología para
describir formas de individualidad que no se basan en los dualismos occidentales (por ejemplo,
Strathern 2004) y que están constituidos por relaciones sociales más que por unidades discretas.
6 Hong señala que en el autoseguimiento “algunas medidas, como la respuesta galvánica de la piel, están
absolutamente fuera del alcance humano; otros, como los pasos dados, se miden con una frecuencia y
precisión prácticamente inalcanzables para los sujetos humanos” (2016, p. 15).

Referencias
Ajana, B. (2017). Salud digital y la biopolítica del yo cuantificado. Salud Digital 3 (enero): https://doi.org/
10.1177/2055207616689509 Andrejevic, M. (2014). La gran división de datos. Revista Internacional de
Comunicación, 8,
1673-1689

Cerveza, D. (2009). ¿Poder a través del algoritmo? Las culturas web participativas y el techno
inconsciente lógico. Nuevos medios y sociedad, 11, 985–1002 Berson,
J. (2015). Cuerpos computables: la vida instrumentada y el nicho somático humano. Nueva York:
Bloomsbury.
Bhat, S. (2013). Todos somos narcisistas ahora, y eso es algo bueno. Fast Com Septiembre https://
27,
www.fastcompany.com/3018382/2013.
pany, were-all-narcissists-now-and-thats-a-good-thing

boyd, dy Crawford, K. (2012). 'Cuestiones críticas para big data: provocaciones para un fenómeno cultural,
tecnológico y académico.' Información, Comunicación y Sociedad, 15, 662–79.

Cheney-Lippold, J. (2011). Una nueva identidad algorítmica: biopolítica blanda y la modulación del control. Teoría,
Cultura y Sociedad, 28(6), 164–181. doi: 10.1177/0263276411424420 Day, S. y Lury, C. (2016). Biodetección:
Seguimiento de personas. En D. Nafus (Ed.), Cuantificado: Tecnologías de detección biológica en la vida cotidiana
(págs. 43–66). Cambridge, MA: MIT Press.
Deleuze, G. (1992). Posdata sobre las sociedades de control. Octubre, 59, 3–7.
Depper, A. y Howe, PD (2017). ¿Ya estamos en forma? Las experiencias de las adolescentes inglesas con las
aplicaciones de salud y fitness. Revisión de Sociología de la Salud, 26(1): 98–112. https://doi.org/10.1080/
14461242.2016.1196599.

Foucault, M. (1984). 'Sobre la genealogía de la ética: una descripción general del trabajo en progreso', The
Essential Works of Foucault 1954–1984, ed. Paul Rabinow, trad. Robert Hurley y otros, Nueva York: The New
York Press.
Machine Translated by Google

Yo en el bucle 37

Foucault, M. (1988). Tecnologías del Yo. En L. Martin, H. Gutman y P. Hutton (Eds.), Tecnologías del yo: un seminario
con Michel Foucault. Cambridge, MA: Prensa de la Universidad de Massachusetts.

Foucault, M. (1998). Auto-escritura. En Ética: Subjetividad y verdad, editado por Paul Rabinow, (págs. 207–22). Nueva
York: The New Press.
Greenfield, D. (2016). Deep data: Notes on the n of 1. En D. Nafus (Ed.), Quantified: Biosensing technologies in daily
life (págs. 123–146). Cambridge, MA: MIT Press.
Haggerty, KD y Ericson, RV (2000). El montaje de vigilancia. El Diario Británico de
Sociología, 51(4), 605–622. doi: 10.1080/00071310020015280
Hansen, MBN (2015). Feed-forward: Sobre el futuro de los medios del siglo XXI. chicago:
Prensa de la Universidad de Chicago.
Harcourt, BE (2015). Al descubierto: Deseo y desobediencia en la era digital. Cambridge, MA: Prensa de la Universidad
de Harvard.
Hesse, Mónica. 'Bytes de vida'. Washington Post, 9 de septiembre de 2008.
Hong, S. (2016). La intimidad de los datos: la sensibilidad maquínica y el yo cuantificado. comunicación
+1: vol. 5, artículo 3. DOI: 10.7275/R5CF9N15
Horning, R. (2012). Notas sobre el "yo de los datos". Utilidad Marginal (blog). 2 de febrero . https://thenewinquiry.com/
blog/dumb-bullshit/ Iliadis, A., & Russo, F. (2016). Estudios de datos críticos: una introducción. Sociedad de Big
Data
julio-diciembre, 1-7
Kennedy, H., Poell, T. y van Dijck, J. (2015). Introducción: datos y agencia. Sociedad de Big Data
2: https://doi.org/10.1177/2053951715621569
Koopman, C. (2016). 'Transformación del yo en medio de los desafíos del azar: William James sobre 'Nuestros
indisciplinables'. Diacríticos, 44 (4), 40–65. https://doi.org/10.1353/ dia.2016.0019.

Kristensen, DB y Ruckenstein, M. (2018). 'Coevolucionando con tecnologías de seguimiento automático.' Nuevos


medios y sociedad. Publicado por primera vez el 21 de febrero de 2018, 1–17. https://doi. org/
10.1177/1461444818755650
Lash, S. (2007). Poder después de la hegemonía: ¿estudios culturales en mutación? Teoría, Cultura y
Sociedad, 24: 55–78
Lupton, D. (2016). El yo cuantificado: una sociología del auto-seguimiento. Cambridge: Polity Press.
Mackenzie A., (2005). La performatividad del código: software y culturas de circulación.
Teoría, Cultura y Sociedad, 22: 71–92.
Mittelstadt, BD, Allo, P., Taddeo, M., Wachter, S. y Floridi, L. (2016). La ética de los algoritmos: mapeando el debate.
Big Data Soc., 3. doi: 10.1177/2053951716679679 Morga, A. (2011). ¿Estás a la altura? Fast Company, 5 de
abril de 2011. https://www.fastcom pany.com/1744571/do-you-measure.

Morozov, E. (2013). Para guardarlo todo pincha aquí: La locura del solucionismo tecnológico. Nueva York: Asuntos
Públicos.

Nafus, D. (Ed.). (2016). Cuantificado: Tecnologías de biodetección en la vida cotidiana. Cambridge, MA:
Prensa del MIT.

Nafus, D. y Sherman, J. (2014). Este no sube al 11: El automovimiento cuantificado como práctica alternativa de big
data. Revista internacional de comunicación, 8 (0), 1784–1794.
Neff, G. y Nafus, D. (2016). Auto-seguimiento. Cambridge, MA: MIT Press.
Oxlund, B. (2012). 'Viviendo por Números.' Suomen Antropologi: Revista de la Sociedad Antropológica Finlandesa,
37 (3), 42–56 Pantzar, M. y Ruckenstein, M. (2017). Viviendo las métricas: Auto-seguimiento y objetividad
situada. Digital Health, 3, 1 de enero. doi: 10.1177/2055207617712590 Pasquale, F. (2015). El yo algorítmico. La
revisión del erizo. www.iasc-culture.org/

THR/THR_article_2015_Spring_Pasquale.php
Machine Translated by Google

38 Natasha Dow Schull

Rabinow, P. y Rose, N. (2006). Biopoder hoy. Biosociedades, 1, 195–217.


Rich, E. y Miah, A. (2017). Tecnologías de salud móviles, ponibles e ingeribles: Hacia una agenda de
investigación crítica. Revisión de sociología de la salud, 26(1): 84–97. https://doi.org/10.108
0/14461242.2016.1211486.

Ruckenstein, M. (2014). Vida visualizada e interactuada: análisis y compromisos personales


con datos dobles. Sociedades, 4(1), 68–84. doi: 10.3390/soc4010068
Sanders R (2017) Auto-seguimiento en la era digital: biopoder, patriarcado y el nuevo biom
proyectos corporales éticos. Cuerpo y Sociedad 23(1): 36–63.
Schull, N. (2016a). Oportunidad permanente: El póquer en línea y el software de la autodisciplina. Público
Cultura, 28(3), 563–592. doi: 10.1215/08992363–3511550
Schull, N. (2016b). Datos para toda la vida: Tecnología usable y diseño de autocuidado. Biosociedad
lazos, 11(3), 317–333. doi: 10.1057/biosoc.2015.47
Sharon, T. (2017). Autoseguimiento para la salud y el yo cuantificado: rearticulando la autonomía, la solidaridad
y la autenticidad en la era de la atención médica personalizada. Philosophy & Technology, 30, 93–121.

Sherman, J. (2016). Datos en la era de la reproducción digital: Lectura del yo cuantificado a través de Walter
Benjamin. En D. Nafus (Ed.), Cuantificado: Tecnologías de biodetección en la vida cotidiana (págs. 27–42).
Cambridge, MA: MIT Press.
Smith, GJD (2016). Vigilancia, dato y corporeidad: Sobre el trabajo de ser vigilado.
Cuerpo y Sociedad, 22(2),108–139. doi: 10.1177/1357034X15623622 Strathern,
M. (2004). La persona entera y sus artefactos. Revista Anual de Antropología,
33(1), 1–19. doi: 10.1146/annurev.anthro.33.070203.143928
Cisne, M. (2013). El yo cuantificado: disrupción fundamental en la ciencia de los grandes datos y el
descubrimiento biológico. Grandes datos, 1(2), 85–99. doi: 10.1089/big.2012.0002 Till, C. (2014). El
ejercicio como trabajo: el yo cuantificado y la transformación del ejercicio en trabajo. Sociedades, 4, 446–462

van Dick, J. (2014). Datificación, dataísmo y vigilancia de datos: Big data entre científicos
paradigma e ideología. Vigilancia y Sociedad, 12(2), 197–208.
van den Eede, Y. (2015). Rastreando al rastreador: una investigación posfenomenológica sobre las tecnologías
de auto-rastreo. En R. Rosenberger y P.-P. Verbeek (eds.), Investigaciones posfenomenológicas: Ensayos
sobre las relaciones entre humanos y tecnología (págs. 143–158). Lanham: Libros de Lexington.

Watson, S. (2013). Vivir con datos: usos de datos personales del yo cuantificado. MPhil dis
dentado Universidad de Oxford.
Lobo, G. (2010). La vida basada en datos. New York Times, 28 de abril, sec. Revista. www.nytimes. com/
2010/05/02/magazine/02self-measurement-t.html Wolf, G. (2016). El yo cuantificado: ingeniería inversa. En
D. Nafus (Ed.), Cuantificado: Tecnologías de biodetección en la vida cotidiana (págs. 67–72). Cambridge, MA:
MIT Press.
Machine Translated by Google

4
FUTUROS POSTHUMANOS:
CONECTAR/DESCONECTAR
EL YO EN RED (MÉDICO)
laura forlano

Los dispositivos médicos en red, a diferencia de las tecnologías de comunicación como


Internet, los teléfonos móviles y las redes sociales, ofrecen una perspectiva única sobre el
tema del yo en red en el contexto de la aumentación humana, la inteligencia artificial y la
sensibilidad. Este capítulo se basa en la tecnociencia feminista para comprender cómo las
tecnologías médicas en red nos permiten reconsiderar lo que significa ser humano, cómo
nos entendemos a nosotros mismos y cómo creamos significado en nuestras vidas. A
través de tres viñetas autoetnográficas, esta pieza reflexiona sobre la experiencia de vivir/
ser/hacerse parte de estas tecnologías en red como una forma de subjetividad posthumana.
Aquí, la desconexión, más que la conexión, emerge como un tema clave que anima y hace
visible la experiencia social y material de estas tecnologías. Estos momentos de fracaso y
ruptura permiten nuevas consideraciones en torno al autoconocimiento, la agencia y la
actualización integradas en las prácticas de reparación y cuidado.

Desde mediados de la década de 2000, la mayor parte de mi investigación y escritura


se ha centrado en las materialidades de lo digital. En medio de los constantes reclamos de
desmaterialización en las últimas décadas, que continúan promoviendo el argumento de
que los reinos digital, virtual, en línea y en red están reemplazando al mundo físico, dicha
investigación es vital para asegurar que la estética y la política en torno a los cuerpos, las
cosas y los recursos ambientales continúan siendo importantes y, como resultado, son
menos fáciles de descartar. Específicamente, me he interesado en las formas en que los
sistemas e infraestructuras sociotécnicas, a veces invisibles, se revelan a través de
prácticas sociales y culturales. Estas prácticas a menudo se hacen visibles a través de la
reconfiguración de cuerpos, representaciones y cosas en el tiempo y el espacio (es decir,
la distribución global de las prácticas de trabajo (Forlano & Mazé, de próxima publicación),
el uso de recursos ambientales, etc.). Por ejemplo, en 2003, pasé horas viendo a
adolescentes japoneses usando algunos de los primeros teléfonos con cámara en Shibuya Crossing en Tok
Machine Translated by Google

40 Laura Forlano

Al año siguiente, me senté día tras día en Szoda, un café en Budapest ubicado cerca de la
Gran Sinagoga, viendo a la gente usar sus computadoras portátiles en la red Wi-Fi gratuita,
que fue una de las primeras de la ciudad. Instalé mi propio punto de acceso Wi-Fi en mi
apartamento de East Village mientras encuestaba simultáneamente a más de 600 personas
en tres ciudades y entrevistaba a más de treinta personas sobre las formas en que usaban
estas tecnologías en 2006. Ese mismo año, me paré en los tejados. de bloques de viviendas
cooperativas en lo que antes era Berlín Este para estudiar las redes inalámbricas
administradas por la comunidad (Forlano, 2009). Organicé exposiciones y eventos en Nueva
York para comprender mejor cómo las primeras versiones de estas redes y las redes
sociales basadas en la ubicación podrían usarse para unir a las personas en 2009 (Forlano,
2011; Townsend et al., 2011). Me paré en el frío mientras probaba una aplicación basada
en la ubicación en un campus universitario en el norte del estado de Nueva York en 2010 (Forlano, 2013).
En los últimos diez años, un creciente cuerpo de literatura ha buscado dar sentido a estas
y otras prácticas relacionadas basándose en teorías de materialidad digital (Dourish, 2017;
Forlano, 2015; Pink et al., 2016), que, en pocas palabras, está interesado en explicar tanto
la materialidad de lo digital como, al mismo tiempo, la digitalidad de lo material.

Este capítulo aborda temas similares en torno a la materialidad digital; sin embargo, a
diferencia de mis proyectos anteriores, que tenían teorías, métodos, protocolos, conjuntos
de datos y muchos pequeños cuadernos Moleskine negros cubiertos con pegatinas e
inscritos con notas y bocetos, este proyecto no fue planificado, no deseado y , incluso, algo
inusual. Después de que me diagnosticaran diabetes tipo 1 en 2011 y de adoptar una
bomba de insulina y un monitor continuo de glucosa (MCG) en 2013, comencé a escribir
sobre mis propias experiencias con estos dispositivos médicos en red en una serie de artículos.
Si bien este escrito no comenzó como una investigación, mis proyectos anteriores me
proporcionaron un filtro teórico a través del cual ver esta experiencia. Me preparó para
prestar atención a los detalles de las formas en que las tecnologías, en este caso, las
infraestructuras íntimas utilizadas para controlar la diabetes, se entrelazan con las
experiencias vividas todos los días. De esta manera, argumento que el devenir es una
forma de producción de conocimiento que se alinea con la tecnociencia feminista. A través
del devenir, participo en muchas prácticas de investigación: cálculo, medición, calibración,
prueba, experimentación, recopilación de datos, interpretación de datos e intercambio de
datos. Realizo muchos tipos de trabajo para mantener y reparar estos dispositivos médicos en red.
Lo que hace a esta tecnociencia feminista no son estas actividades en sí mismas (ya que
tienen mucho en común con otras comunidades de ciencia del yo cuantificado y del bricolaje).
Lo que hace a esta ciencia feminista es la integración de teoría y práctica en torno al cuerpo
como lugar epistémico, la atención a las relaciones entre actores humanos y no humanos,
la comprensión y reconocimiento de que esta es una perspectiva parcial del mundo, la
conciencia de el privilegio y el poder que me permiten escribir esta narración, y la
representación del cuidado que tiene lugar cuando ese conocimiento se distribuye y
comparte. La tecnociencia feminista atiende a conjuntos alternativos de ética, valores y
responsabilidades con respecto al mundo o mundos en los que participa.
Machine Translated by Google

Futuros posthumanos 41

Al prestar cuidadosa atención y reflexionar sobre las actividades, los rituales y las
prácticas en las que participo todos los días, puedo dar cuenta de la experiencia vivida y
encarnada del yo (médico) en red. Estos rituales incluyen tareas cotidianas como
ducharse, cepillarse los dientes y vestirse, que deben cambiar para adaptarse a las
nuevas “características” que se han agregado a mi cuerpo. Por ejemplo, ducharse
significa quitar el tubo desenroscando una tapa circular y frotando con cuidado alrededor
del "puerto" para que no se le peguen hilos de la toallita. Cepillarme los dientes a menudo
significa apoyar la bomba en el mostrador mientras estoy envuelto en una toalla (sin
ningún lugar para sujetarlo).
Al vestirme, elijo mi ropa en una constante negociación con la bomba. Me paro en el
armario, bombeo en una mano y me pruebo una serie de conjuntos. Puedo usar casi
cualquier cosa, pero algunas combinaciones no funcionan tan bien como otras. Si soy
creativo, encuentro que puedo sacar el tubo de un suéter sin mangas de lana roja y
meterlo en el bolsillo izquierdo de un blazer negro o unirlo a la mitad de mi sostén y
cubrirlo con una bufanda colorida.
Algunos de estos relatos son frustrantes (como cuando se rompe el clip de plástico
de la funda de la bomba mientras estoy en el extranjero), mientras que otros son más
cómicos (como cuando se me atasca el tubo en la perilla de un cajón de la cocina).
Basándome en el cyborg de Haraway (1991), he creado la figura del cyborg discapacitado
como una forma de entender las formas en que los dispositivos médicos en red ofrecen
ampliar y reparar las capacidades de mi cuerpo mientras que al mismo tiempo sufren sus
propias averías. (Forlano, 2016b). Aquí, empleé el concepto de piratería debido a sus
asociaciones con cortar, participar (e irrumpir) y hacer frente.
Además, debido al tipo de narrativa cómica que quería contar en esa pieza, me atrajo la
forma en que la piratería está vinculada a bromas, engaños y engaños (Coleman, 2012).

Posteriormente, comencé a considerar las formas en que participaba en el


mantenimiento, la reparación y el cuidado de los dispositivos que aparentemente me
cuidaban. Por ejemplo, hay una miríada de fallas cotidianas que ocurren con regularidad:
la batería de la bomba se agota camino a la oficina, los tubos se doblan por la mitad e
impiden que la insulina fluya al cuerpo, el CGM o el medidor deben recargarse, las
superficies adhesivas pegajosas se despegan y las lecturas son incorrectas, por nombrar
solo algunas. Por lo general, estos inconvenientes menores se pueden manejar con
bastante facilidad en el transcurso de la vida cotidiana. Pero, a veces, varias cosas fallan
a la vez o en momentos que son considerablemente incómodos. En estas situaciones,
está claro que el sistema, que por lo demás a menudo parece estar funcionando bastante
bien, es increíblemente frágil y el riesgo de lo que podría ser una avería que pone en peligro la vida es rea
Basándome en el pensamiento del mundo roto de Jackson (Jackson, 2014), desarrollo
una teoría multiescalar del pensamiento del cuerpo roto que colapsa el mundo sobre el
cuerpo y explora el cuerpo cyborg discapacitado como una subjetividad múltiple,
posthumana y más que humana (Forlano , 2016a, 2017a, 2017b), que sugería un
conjunto diferente de preocupaciones, relaciones, contingencias y procesos. En mi
comprensión de lo posthumano, incluyo consideraciones en torno a las posibilidades y
Machine Translated by Google

42 Laura Forlano

limitaciones de la tecnología, así como nuestra relación con las ecologías y el medio
ambiente natural. En lugar de concebirme simplemente como un usuario humano de
dispositivos médicos en red, describí mi identidad como un usuario-reparador, participando
activamente en prácticas de mantenimiento (Sample, 2016; Vinsel & Russell, 2016), reparación
y cuidado (Mol, 2008). ; Rosner & Ames, 2014; Toombs et al., 2015). Basándome en la “lógica
del cuidado” de Annemarie Mol (en contraste con la “lógica de la elección” en la economía de
mercado), describo el trabajo mutuo, continuo, colaborativo y colectivo que se requiere todos
los días. Aquí, es útil preguntar qué nociones sobre el cuidado podrían ofrecer a las
conversaciones continuas sobre ciencia, innovación e infraestructura con un enfoque específico
en aumento humano, inteligencia artificial y sensibilidad.
Pero, ¿qué pasa con las implicaciones laborales de esta identidad, a medida que asumo más
y más el trabajo que podrían haber hecho las instituciones en el pasado? Por un lado, tengo
mucha autonomía para cuidarme; por otro lado, estoy haciendo el trabajo que los médicos o
los hospitales podrían haber hecho en el pasado. Si los usuarios también deben ser
reparadores, su trabajo también debe ser retribuido, valorado y reconocido como tal.

Basándome en el nuevo materialismo feminista (Bennett, 2009; Braidotti, 2013) y


discusiones sobre interseccionalidad (Crenshaw, 1991), consideré las formas en que participo
en múltiples mundos sociales y subjetividades (y, por lo tanto, patrones relacionados de
opresión y discriminación) relacionados con género, tecnología, discapacidad y diferencia. El
nuevo materialismo feminista también me ha llamado la atención sobre la inmensa cantidad
de desechos médicos (plásticos, envases y agujas) que se producen semanalmente en la
vida cotidiana del cyborg discapacitado.
A partir de esto, más recientemente, me he involucrado con la noción de tiempo de
inactividad de Kafer (Kafer, 2013) para explicar la experiencia de la diferencia que se enfrenta
durante las actividades cotidianas mundanas, como comer. En este trabajo, utilizo la visión
ritual de las comunicaciones de Carey (Carey, 1988) para desarrollar la idea de los rituales de
datos, que son los procesos incorporados necesarios para gestionar y participar en las
actividades cotidianas que requieren acceso a datos sobre el azúcar en la sangre (Forlano,
próximamente). Utilizo el término infraestructuras íntimas para captar las formas en que
nuestras vidas están ligadas a los sistemas y ensamblajes sociotécnicos. La intimidad sugiere
alinearse con la tecnociencia feminista en su relación con los conocimientos situados,
contextuales, encarnados, afectivos y parciales (Haraway, 1988; Wajcman, 2000).

Al pensar en los futuros posthumanos y, en particular, los introducidos por la aumentación


humana, la inteligencia artificial y la sensibilidad, vuelvo al trabajo de Kafer sobre los futuros
para personas con discapacidades, que aboga por “futuros que abarquen a las personas
discapacitadas, futuros que imaginen la discapacidad de manera diferente, futuros que
sustentan múltiples formas de ser” (2013, p. 45). En particular, mi objetivo es ubicar esta
narrativa en las discusiones emergentes sobre el posthumanismo crítico, que da cuenta de la
raza, el género, la clase, la capacidad, la sexualidad y la geografía (Weheliye, 2014). Es con
este espíritu, inspirado en parte por Malignant (Jain, 2013) de S. Lochlain Jain, que ofrezco
mi relato de vivir con dispositivos médicos en red.
Machine Translated by Google

Futuros posthumanos 43

Desconexión y diferencia

En este capítulo, una vez más me comprometo con muchos de los temas anteriores con
atención a la desconexión y el yo médico en red, lo que contribuye al creciente interés en el yo
cuantificado en los últimos años (Dow Schüll, 2016; Kaziunas et al., 2017; Neff y Nafus, 2016).
La desconexión, el fracaso y la ruptura sirven para hacer más visibles las infraestructuras
según la teoría feminista STS (Star, 1999).
Cuando las nociones de infraestructura colapsan en el cuerpo, su descomposición y decadencia
adquieren significados nuevos y diferentes. La interoperabilidad, los estándares y la propiedad
intelectual tienen consecuencias diferentes. Tales ejemplos personales mundanos sirven para
revelar las formas en que las nociones omnipresentes, simplistas, racionales, universales y
positivistas de lo humano se ven complicadas por las experiencias interseccionales de la
diferencia. ¿Cómo convoca el uso (y el fracaso) de estas tecnologías a un tipo particular de
sujeto humano y, en consecuencia, cómo me entiendo a mí mismo/a? ¿Cómo experimento la
diferencia y ajusto las formas en que me relaciono con el mundo? ¿Cuáles son mis posibilidades
para el futuro?
Cuando elegí adoptar la bomba de insulina por primera vez en 2013, me reuní con un
representante de Medtronic que pasó cerca de una hora y media hablando conmigo y
contándome anécdotas sobre cómo otros clientes (atletas que corren un maratón, adolescentes
que van al baile de graduación) —se había adaptado a usar la bomba. Por ejemplo, contó los
desafíos en términos de comer, hacer ejercicio y socializar, así como las formas en que
pudieron solucionar estos problemas.
Una de estas historias era sobre cómo comer una pizza. Específicamente, la bomba tiene
configuraciones especiales que pueden administrar mejor la dosis de insulina para comer
alimentos con alto contenido de grasas saturadas, como la pizza, que tienden a absorberse
muy lentamente en el cuerpo. Cuando me convenció de los beneficios de la tecnología,
mencionó que nunca sería "perfecta". La bomba está profundamente enredada con la
desordenada realidad material del cuerpo humano. El estrés, las hormonas, el ejercicio y tantos
otros factores biológicos, sociales y ambientales influyen en el cuerpo de muchas maneras.
Entonces, a pesar del énfasis en la rutina para los diabéticos, en realidad nunca comes lo
mismo dos veces en las mismas condiciones. Al menos, bajo la apariencia de soporte técnico,
ahora tengo a alguien a quien llamar para que me aconseje sobre cómo comer una pizza.
Sin embargo, no discutimos las muchas formas en que los propios dispositivos pueden
fallar, fallar o traicionar. Presento algunos de estos tipos de situaciones en las siguientes
viñetas. Es al reflexionar sobre estos minutos, horas ya veces días de desconexión que se
revelan estas infraestructuras íntimas.

Brexit, pilas y sangre (azúcar)

En junio de 2016, justo cuando el Reino Unido estaba en medio de su propia


crisis del Brexit, asistía a una importante conferencia de diseño en Brighton.
El primer día, durante la primera hora de un taller práctico sobre “Smart
Machine Translated by Google

44 Laura Forlano

Ciudades”, se agotó la batería AAA de mi bomba. Me desperté con un nivel muy alto de
azúcar en la sangre, lo cual es común cuando se viaja debido al desfase horario y las horas
irregulares para dormir y comer. Necesitaba ajustar mi nivel de azúcar en la sangre
administrándome insulina.
Cuando traté de "bolo" (como se llama), pude ver que la batería estaba muy baja. No
tenía baterías conmigo y no sabía a dónde podía ir para conseguirlas rápidamente ya que
estaba en un edificio de la universidad a pocas cuadras de la principal calle comercial. No
quería esperar demasiado para obtener una batería nueva ya que, si lo hacía, se borrarían
todos los ajustes de insulina. No pensé que sería capaz de recordar todos los ajustes. Había
al menos cuatro configuraciones diferentes en cuatro momentos diferentes del día para la
insulina "basal" (que se administra las 24 horas del día), cuatro configuraciones diferentes
para la insulina "bolo" (que se necesita a la hora de comer) y una configuración para la
relación de sensibilidad a la insulina (que es necesaria si necesita reducir su nivel de azúcar
en la sangre). Mientras esbozábamos ideas para tecnologías Smart City, comencé a escribir
rápidamente todos estos números en una hoja de papel. En el siguiente descanso, salí
corriendo a comprar pilas a un supermercado a unas cuadras de distancia.

Al mismo tiempo, el CGM dejó de funcionar y no pudo conectarse con el sensor debajo
de mi piel. Sabía que mi nivel de azúcar en la sangre estaba peligrosamente alto. Lo
suficientemente alto como para que incluso me dé un infarto repentino. Comencé a revisar y
volver a revisar la aplicación del iPhone y el transmisor para tratar de que me “redescubrieran”.
Había varias posibilidades para el fracaso. Es posible que la señal del diente azul se haya
desconectado. Es posible que el transmisor se haya salido de los pequeños clips de plástico
adheridos al adhesivo adhesivo que sujeta el MCG al cuerpo. Decidí esperar. No quería
restablecer el sensor porque, si lo hacía, tardaría dos horas en iniciarse. Entonces, tendría
que poner las medidas correctas del medidor. Pero, mi medidor estaba en la habitación del
hotel a 20 minutos a pie. Muy pronto, mi monitor me encontró de nuevo y "nosotros" nos
reunimos.

Esta viñeta sirve para ilustrar las formas en que la subjetividad posthumana se
puede encontrar dentro de la experiencia mundana y cotidiana de vivir/ser/
convertirse en parte de estas tecnologías en red. Al reemplazar las baterías y
verificar las conexiones, el posthumano es reconfigurado, perturbado e interrumpido.
En lugar de revolucionarias y disruptivas, estas experiencias ilustran las formas en
que la confianza en estas tecnologías (como muchos otros sistemas e
infraestructuras tecnológicas) es sutil, invisible e íntima cuando funcionan bien.
Como el falso binario de utopías y distopías, la función y la disfunción deben definir
juntas la subjetividad posthumana. Es en el desmoronamiento mismo de estos
dispositivos médicos en red que soy más consciente de mi propia identidad múltiple y contingente.
Machine Translated by Google

Futuros posthumanos 45

De esta manera, mi identidad se compone de partes humanas y no humanas. A


medida que los diferentes componentes del sistema fallan y/o reaparecen, puedo
transformar y reorganizar mi identidad. En un momento, soy una persona con una bomba
y, en otro, soy una persona con una bomba y un sensor (y una aplicación para ver los
datos). Cuando salgo a correr, soy una persona con un sensor (revisando cuidadosamente
mi nivel de azúcar en la sangre cada pocos minutos y llevando tabletas de glucosa) y una
bomba en el mostrador de la cocina. Cuando me ducho, soy una persona que debe tener
cuidado de no enganchar la toallita en el puerto de plástico o sacar el sensor de su lugar.
Al mismo tiempo, mientras “ellos” están constantemente monitoreando e interviniendo
en mi vida de maneras importantes, yo también estoy continuamente involucrado en
procesos de monitoreo, vigilancia e intervención en la vida de los dispositivos. Este trabajo
afectivo, cognitivo y físico de mantenimiento y reparación exige emoción, energía y tiempo,
pero rara vez se tiene en cuenta, ya que hemos empujado cada vez más el trabajo
humano a los "márgenes de la máquina" y a los bordes del mundo. economía (Ekbia et
al., 2015; Ekbia & Nardi, 2017). Sí, necesito mis dispositivos, pero ellos también me necesitan.

Monitores e Intermediarios

Un ajetreado lunes por la mañana a las 8 am, justo cuando me dirigía a un taller
en Nueva York, mi medidor de glucosa se congeló: la pantalla iluminada se
paralizó con las palabras "Medtronic" en letras blancas. No se apagaría. No
recargaría. No tenía forma de sacar los datos de mi sangre. El CGM todavía
funcionaba, pero no estaba seguro de si los datos eran precisos. Intenté pedir un
nuevo medidor en línea, pero necesitaba una receta médica. Llamé al soporte
técnico de Medtronic para la bomba de insulina. Dado que el medidor fue fabricado
por otra empresa, no pudieron ayudarme. Tenía varios medidores antiguos
diferentes en casa, pero no tenía las tiras reactivas necesarias para usarlos.

El día después del taller volé de regreso a Chicago. Durante el vuelo, mi CGM
también necesitaba ser reiniciado. Necesitaba ingresar los datos correctos del
medidor. Por primera vez en seis años, estuve sin ningún medio para controlar mi
nivel de azúcar en la sangre durante más de 24 horas. Y, durante unas tres horas
ese martes por la mañana, no tuve ni medidor ni monitor de ningún tipo. Llamé a
la oficina de mi médico tan pronto como llegué a casa alrededor del mediodía.
Discutí varias formas de hacer que todo el sistema vuelva a funcionar con un
técnico de laboratorio. Resulta que tenía algunos metros extra. Pero no estaba
seguro de si eran del mismo modelo que el que yo tenía, que era compatible con mi bomba.
Me acerqué a la oficina del doctor y recogí el nuevo medidor. Era el modelo
correcto pero aún no estaba cargado. Tenía hambre, así que decidí almorzar
ramen (¡sin controlar mi nivel de azúcar en la sangre!) antes de irme a casa. A las
4 p. m., tenía un medidor nuevo y acceso a los datos de mi cuerpo. El sistema
estaba funcionando de nuevo.
Machine Translated by Google

46 Laura Forlano

Esta viñeta ilustra las relaciones dinámicas y contingentes entre todos los dispositivos y
componentes necesarios para mantener el funcionamiento de los dispositivos médicos en
red. Incluso cuando la bomba de insulina y el CGM están funcionando, sin ingresar los
datos correctos del monitor de glucosa al menos dos veces al día para calibrar el monitor,
el sistema se vuelve casi inútil. De hecho, el medidor fue una de las primeras piezas de
tecnología que adquirí al enterarme de que me había vuelto diabético en marzo de 2011.
Me fui a casa aterrorizada por el dolor que sentiría al medirme el nivel de azúcar en la
sangre pinchándome el dedo con un lanceta pequeña. Debía controlar mi nivel de azúcar
en la sangre de seis a ocho veces al día, especialmente en la mañana, así como antes y
después de comer.
En lugar de una simple solución técnica como cambiar las baterías o recargar la
energía, situaciones que se habían vuelto familiares después de tres años, esta falla en
particular era nueva. Requería navegar por una red más compleja de relaciones sociales
a través de múltiples llamadas telefónicas y visitas al médico. En particular, en este caso,
mi relación con el técnico y su capacidad para brindarme un dispositivo adicional fueron
vitales para mantener y reparar el sistema rápidamente. Y recibí este apoyo sin la
burocracia habitual, como recetas, seguros, citas y documentación. Fue un simple acto de
apoyo y compasión, cuidado en el sentido más verdadero.

Cuerpos y estándares de Bluetooth

El otoño pasado, decidí comprar un pequeño parlante inalámbrico rojo para colocarlo en el baño de mi
apartamento. Quería poder escuchar podcasts, audiolibros, programas de radio y música rock
alternativa latina mientras me preparaba para el trabajo. Una radio y una computadora portátil no
estaban muy lejos en la cocina, pero estaban fuera del alcance del oído. Cuando reproduje audio
desde mi iPhone, se apagó tan pronto como abrí la ducha. Un altavoz de baño parecía una buena
solución.

Fui a Bose Showcase Store en un centro comercial llamado North Bridge en Michigan Avenue en
Chicago un día después del trabajo. Había mirado los parlantes portátiles muchas veces antes y,
después de solo cinco minutos, estaba listo para comprar el parlante SoundLink Color en Coral Red.
Mientras revisaba, pregunté cómo se conectaría el altavoz a mi iPhone.

“Bluetooth”, respondió el empleado de la tienda.


“¿Qué sucede si ya tengo un dispositivo Bluetooth conectado a mi iPhone?”
Me preguntaba.

El empleado dijo que, dado que Bluetooth solo podía conectarse a un dispositivo a la vez, tendría
que desconectarlo. Cuando mencioné que era un dispositivo médico que estaba conectado las 24

horas, me sugirió que comprara un cable adicional por $20 adicionales para conectar mi iPhone al
altavoz a través de una entrada auxiliar.
Machine Translated by Google

Futuros posthumanos 47

Compré el cable por si acaso y me fui a casa, pensando en las formas en que mi cuerpo
habilitado para Bluetooth podría limitarme de usar una variedad de otros dispositivos de
consumo. De acuerdo con el sitio web de la compañía, el orador fue “creado pensando en
usted”.1 ¿Debía ser incluido en este “tú” universal imaginado por la compañía?
¿Ya no era interoperable en las formas en que otros cuerpos discapacitados no pueden
acceder a las aceras, el transporte, las salas de conferencias, los lugares de trabajo y los sitios
web? Con la adopción de tecnologías en torno a la aumentación humana, la inteligencia
artificial y la capacidad de sentir, tales estándares tecnológicos y consideraciones sobre la
discapacidad se vuelven cada vez más vitales para la vida cotidiana.
Recientemente actualicé CGM a la versión de la aplicación para iPhone (en lugar de llevar
un dispositivo separado), que requería una conexión Bluetooth. Con su actualización al G5
CGM en los Estados Unidos, el fabricante decidió usar una conexión Bluetooth para
comunicarse solo con el iPhone (junto con otros dispositivos y sistemas operativos de Apple).2
Actualmente, los usuarios que no son de Apple no pueden acceder a esta actualización. por
diseño (y, probablemente, acuerdos legales entre las empresas). Durante seis meses, usé el
cable adicional que había comprado para reproducir música en los parlantes. Fue solo cuando
escribía este capítulo que probé la conexión Bluetooth.3 Al final, descubrí que podía transmitir
audio en mi teléfono mientras recibía datos sobre mi nivel de azúcar en la sangre sin ningún
problema.
Sin embargo, aunque ducharse se ha vuelto ciertamente más placentero y educativo, mis
preocupaciones sobre los estándares y la interoperabilidad de los cuerpos discapacitados en
un mundo de aumento humano, inteligencia artificial y sensibilidad permanecen y, en todo
caso, solo se han intensificado. Si bien las comunidades de discapacitados a menudo se
mencionan como los beneficiarios de las tecnologías emergentes, como los vehículos
autónomos, sus necesidades rara vez se consideran en las primeras etapas del proceso de
diseño e ingeniería. Además, los dispositivos médicos en red son caros (como ejemplo, la
bomba de insulina costaba alrededor de $9,000, la mayor parte de los cuales, afortunadamente,
estaba cubierta por mi seguro médico) y la comunidad de personas con discapacidad es una
de las menos capaces de acceder a oportunidades de empleo debido a las desigualdades
estructurales. . Al diseñar futuros posthumanos que aprovechen las tecnologías emergentes,
es esta ética del acceso y la desigualdad la que debe ocupar un lugar central.

Conclusión
¿Cómo podría una perspectiva feminista de la tecnociencia, y en particular, una que dé cuenta
de la discapacidad, la desconexión y la diferencia, informar nuestras discusiones sobre
aumento humano, inteligencia artificial y sensibilidad? En este capítulo utilizo un relato
autoetnográfico para reflexionar sobre la subjetividad posthumana, llamando la atención sobre
el trabajo, las relaciones sociales, los estándares, la interoperabilidad y el desperdicio.
Podemos preguntar qué significa esta narrativa para la teoría, el método, la práctica y la
política y, lo que es más importante, para las comunidades más marginadas cuya experiencia
de estos problemas se parece poco a la nuestra. Esta narrativa, junto con mi trabajo anterior,
ilustra las formas en que debemos mirar a través de múltiples proyectos, a través de nuestro
Machine Translated by Google

48 Laura Forlano

vidas profesionales, personales y políticas, a través de múltiples escalas y múltiples


disciplinas para construir conocimiento. En última instancia, dado que cada individuo solo
puede contribuir con una perspectiva parcial, incluso con una descripción rica y una
reflexión profunda, el proyecto de promulgar futuros posthumanos críticos debe ser
colaborativo si busca unir estas múltiples perspectivas.
Desde una perspectiva de diseño e ingeniería, las posibilidades, limitaciones y
consideraciones éticas en torno a futuros posthumanos, ya sean tecnológicos o
ambientales, presentan una oportunidad para repensar nuestras metodologías. El diseño
centrado en el ser humano ha florecido al servicio de la industria en las últimas décadas.
Esta narrativa y la perspectiva de la subjetividad posthumana con sus relaciones múltiples
y contingentes complican los entendimientos comunes del sujeto humano discreto, que
son omnipresentes en el campo del diseño. Diseñar para futuros posthumanos requerirá
nuevos tipos de experiencias empáticas y subjetivas. Una atención mayor y más profunda
a los rituales y prácticas de nuestros dispositivos, sensores y datos (en lugar de solo su
transmisión) es importante, si no absolutamente necesaria, para navegar y dar sentido a
este mundo.
Además, estas viñetas sobre la desconexión interrumpen el típico "camino feliz", que
ofrece experiencias de usuario fluidas que ilustran la forma en que se supone que
funciona el producto en un mundo ideal. Diseñar en torno a la desconexión daría cuenta
de los "ahoras alternativos" (Redström, 2017) en los que la avería y la reparación (en
lugar de la obsolescencia planificada) es el estado normativo. Tal enfoque requiere
diferentes tipos de conocimiento y práctica de diseño que tengan en cuenta la fricción,
los fallos y las costuras en estos sistemas para informar escenarios, prototipos y
posibilidades.

Agradecimientos

Agradezco a Lara Houston, Daniela Rosner, Steven Jackson, Åsa Ståhl, Kristina
Lindström y Marisa Cohn por su apoyo en este y otros trabajos relacionados con este
tema. También me gustaría agradecer al Laboratorio de Investigación de Culturas
Digitales de la Universidad de Leuphana en Lüneburg, Alemania, por invitarme a continuar
mi compromiso con estos temas durante una beca sobre "Diseño y Reparación" en diciembre de 2016.

notas
1 Consulte www.bose.com/en_us/products/speakers/wireless_speakers/soundlink-color bluetooth-speaker-
ii.html#v=soundlink_color_ii_red.
2 Consulte http://dexcom.com/faq/what-devices-and-software-are-compatible-dexcom-cgm
aplicaciones

3 Consulte www.bluetooth.com/what-is-bluetooth-technology/how-it-works.

Referencias
Bennett, J. (2009). Materia vibrante: una ecología política de las cosas. Durham, Carolina del Norte: Universidad de Duke
Presionar.
Machine Translated by Google

Futuros posthumanos 49

Braidotti, R. (2013). El posthumano. Boston: Política.


Carey, JW (1988). La comunicación como cultura: Ensayos sobre medios y sociedad. Nueva York: Unwin
Hyman.
Coleman, G. (2012). Libertad de codificación: la ética y la estética de la piratería. Princeton, Nueva Jersey: Príncipe
Ton University Press.
Crenshaw, K. (1991). Mapeando los márgenes: interseccionalidad, políticas de identidad y violencia contra las
mujeres de color. Revista de derecho de Stanford, 43(6), 1241–1299.
Dourish, P. (2017). El material de los bits: un ensayo sobre la materialidad de la información. cambridge,
MA: Prensa del MIT.

Dow Schull, N. (2016). Datos para toda la vida: Tecnología usable y diseño de autocuidado.
BioSocieties, 11(3), 317–333.
Ekbia, HR, Nardi, B. y Sabanovic, S. (2015). En los márgenes de la máquina: Heteroma
ción y robótica. Actas de la iConference 2015.
Ekbia, Hamid R. y Nardi, Bonnie A. (2017). Heteromación, y otras historias de computación y capitalismo. Cambridge,
MA: MIT Press.
Forlano, L. (2009). Geografías WiFi: cuando el código se encuentra con el lugar. La Sociedad de la Información, 25,
1–9.

Forlano, L. (2011). Construyendo la ciudad de código abierto: nuevos entornos de trabajo para la colaboración y la
innovación. En M. Foth, L. Forlano, C. Satchell y M. Gibbs (Eds.), De mariposa social a ciudadano comprometido
(págs. 437–460). Cambridge, MA: MIT Press.
Forlano, L. (2013). Haciendo olas: tecnología urbana y la coproducción del lugar. Primero
Lunes, 18(11).
Forlano, L. (2015). Hacia una teoría integrada de lo ciberurbano. Cultura y sociedad digital, 1(1), 73–92.

Forlano, L. (2016a). Descentrando lo humano en el diseño de ciudades colaborativas. Cuestiones de diseño, 32(3),
42–54.
Forlano, L. (2016b). Hackeando el cuerpo discapacitado feminista. Revista de producción entre pares, 8.
Forlano, L. (2017a). Mantenimiento, reparación y cuidado del sujeto múltiple. Continente
(6.1), 30–35.
Forlano, L. (2017b). Posthumanismo y diseño. She Ji: la revista de diseño, economía y
Innovación, 3(1), 16–29.
Forlano, L. (próximamente). Rituales de datos en infraestructuras íntimas: Crip time y dis
El cuerpo cyborg capacitado como sitio epistémico de la ciencia feminista. Catalizador.
Forlano, L. & Mazé, R. (próximamente). Demostrar y anticipar de forma distribuida
prácticas de diseño. Demostraciones.
Haraway, D. (1988). Saberes situados: la cuestión de la ciencia en el feminismo y lo privi
Ley de perspectiva parcial. Estudios feministas, 14(3), 575–599.
Haraway, DJ (1991). Un manifiesto cyborg: ciencia, tecnología y feminismo socialista a finales del siglo XX. En
Simios, cyborgs y mujeres: La reinvención de la naturaleza (pp.
149–181). Nueva York: Routledge.
Jackson, SJ (2014). Repensar la reparación. En T. Gillespie, P. Boczkowski y K. Foot (Eds.), Tecnologías de los
medios: ensayos sobre comunicación, materialidad y sociedad. Cambridge, MA: MIT Press, 221–39..

Jain, SL (2013). Maligno: Cómo el cáncer se convierte en nosotros. Berkeley, CA: Universidad de California
Presionar.

Kafer, A. (2013). Feminista, queer, crip. Bloomington, IN: Prensa de la Universidad de Indiana.
Kaziunas, E., Lindtner, S., Ackerman, MS y Lee, JM (2017). Datos vividos: Jugando con
cuerpos, código y trabajo de cuidados. Interacción humano-computadora, 33(1) 1–44.
Mol, A. (2008). La lógica del cuidado: La salud y el problema de la elección del paciente. Abingdon: Routledge.
Machine Translated by Google

50 Laura Forlano

Neff, G. y Nafus, D. (2016). Auto-seguimiento. Cambridge, MA: MIT Press.


Pink, S., Ardevol, E. y Lanzeni, D. (Eds.). (2016). Materialidades digitales: diseño y antropología
ogía Nueva York: Bloomsbury.
Redström, J. (2017). Haciendo teoría del diseño. Cambridge, MA: MIT Press.
Rosner, DK y Ames, M. (2014). ¿Diseñar para reparar? Infraestructuras y materialidades del desglose. Ponencia
presentada en la 17.ª conferencia ACM sobre trabajo cooperativo asistido por ordenador y computación social.

Muestra, H. (2016). Arquitectura de mantenimiento. Cambridge, MA: MIT Press.


Estrella, SL (1999). La etnografía de la infraestructura. Científico estadounidense del comportamiento, 43(3),
377–391.

Toombs, AL, Bardzell, S. y Bardzell, J. (2015). El adecuado cuidado y alimentación de los espacios hacker: ética del
cuidado y culturas del hacer. Ponencia presentada en la 33.ª Conferencia Anual de ACM sobre Factores
Humanos en Sistemas Informáticos.
Townsend, A., Forlano, L. y Simeti, A. (2011). ¡Fugarse! Escapar de la oficina: situar el trabajo del conocimiento en
espacios públicos conscientes. En M. Shepard (Ed.), Sentient City. Cambridge, MA: MIT Press, 128–151.

Vinsel, L. y Russell, A. (2016). Salve a los mantenedores. Eón, abr.


Wajcman, J. (2000). Reflexiones sobre los estudios de género y tecnología: ¿En qué estado se encuentra el arte?
Estudios Sociales de la Ciencia, 30(3), 447–464.
Weheliye, AG (2014). Habeas viscus: montajes racializantes, biopolítica y feminista negra
teorías del ser humano. Durham, Carolina del Norte: Duke University Press.
Machine Translated by Google

5
OTRAS COSAS: IA, ROBOTS,
Y SOCIEDAD
David J. Gunkel

Parece que estamos en medio de un apocalipsis de robots. La invasión, sin embargo,


no se parece a lo que hemos sido programados para esperar de décadas de literatura
y cine de ciencia ficción. Ocurre no como una catástrofe espectacular que involucra a
un ejército merodeador de máquinas alienígenas que descienden de los cielos con
armas de un poder inconmensurable. En cambio, tiene lugar, y ya está teniendo lugar,
en formas que se parecen más a la caída de Roma que a Battlestar Galactica, con
máquinas de diversas configuraciones y capacidades que, de forma lenta pero segura,
van ocupando posiciones cada vez más importantes e influyentes en la realidad social
cotidiana. “La idea de que los humanos algún día compartiríamos la Tierra con una inteligencia rival”,
Philip Hingston (2014) escribe, “es tan antiguo como la ciencia ficción. Ese día está
acelerando hacia nosotros. Nuestros rivales (¿o serán nuestros compañeros?) no
vendrán de otra galaxia, sino de nuestros propios esfuerzos e imaginaciones. Llegan
los bots: chatbots, robots, gamebots” (p. v).
Y los robots no solo vienen. Ya están aquí. De hecho, nuestras redes de
comunicación e información están invadidas, si es que no lo están ya, por máquinas.
Ahora se estima que más del 50% del tráfico en línea es generado y consumido por
máquinas (Zeifman, 2017). Esto solo aumentará con Internet de las cosas (IoT), que se
espera que admita más de 26 mil millones de dispositivos interactivos y conectados
para 2020 (a modo de comparación, se estima que la población humana actual del
planeta Tierra es de 7.4 mil millones) (Gartner, 2013). Por lo tanto, ya hemos alcanzado
y vivimos ese futuro que Norbert Wiener (1950) había vaticinado al comienzo de El uso
humano de los seres humanos: cibernética y sociedad: “Es la tesis de este libro que la
sociedad solo puede entenderse a través del estudio de los mensajes y las facilidades
de comunicación que le pertenecen; y que en el futuro desarrollo de estos mensajes e
instalaciones de comunicación, mensajes entre el hombre y
Machine Translated by Google

52 David J. Gunkel

las máquinas, entre las máquinas y el hombre, y entre la máquina y la máquina, están
destinadas a desempeñar un papel cada vez mayor” (p. 16).
Lo que más importa frente a esta incursión de la máquina no es la resistencia—

en la medida en que la resistencia ya es inútil, sino cómo decidimos dar sentido y responder
a las nuevas oportunidades o desafíos sociales que estas cosas ponen a nuestra disposición.
La investigación de este asunto procederá a través de tres pasos o movimientos. La primera
parte reevaluará críticamente la forma en que típicamente situamos y damos sentido a las
cosas. Por lo tanto, apuntará y reconsiderará la teoría instrumental, que caracteriza las
cosas, y los artefactos tecnológicos en particular, como nada más que herramientas al
servicio de los intereses y objetivos humanos. El segundo investigará las oportunidades y los
desafíos que los desarrollos recientes con inteligencia artificial, algoritmos de aprendizaje y
robots sociales plantean para esta comprensión predeterminada estándar. Estos otros tipos
de cosas desafían y exceden los límites conceptuales de la teoría instrumental y nos piden
que reevaluemos quién o qué es (o puede ser) un sujeto social legítimo. Finalmente, y a
modo de conclusión, la tercera parte sacará las consecuencias de este material, explicando
lo que supone este desarrollo para nosotros, los demás entes con los que nos comunicamos
e interactuamos, y las nuevas situaciones y circunstancias sociales que empiezan a definirse.
la vida en el siglo XXI.

Presunciones operativas estándar


No hay, al parecer, nada particularmente interesante o extraordinario acerca de las cosas.
Todos sabemos lo que son las cosas; tratamos con ellos todos los días. Pero como señaló
Martin Hei Degger (1962), esta inmediatez y proximidad es precisamente el problema.
Marshall McLuhan y Quentin Fiore (2001) lo explicaron ingeniosamente de esta manera:
“algo de lo que los peces no saben exactamente nada es el agua” (p. 175). Al igual que los
peces que no pueden percibir el agua en la que viven y operan, somos, argumenta Heidegger,
a menudo incapaces de ver las cosas que están más cerca de nosotros y comprenden el
entorno mismo de nuestra existencia cotidiana. En respuesta a esto, Heidegger dedica un
esfuerzo considerable a investigar qué son las cosas y por qué las cosas parecen ser más
difíciles de lo que parecen inicialmente. De hecho, “la cuestión de las cosas” es una de las
preocupaciones principales y un principio organizador del proyecto ontológico de Heidegger
(Benso, 2000, p. 59), y esta preocupación por las cosas comienza desde el comienzo de su
magnum opus de 1927, Ser . y tiempo:

Los griegos tenían un término apropiado para “cosas”: pra¢gmata [prag mata], es
decir, aquello con lo que uno tiene que ver en los tratos que le conciernen (praxiV).
Pero ontológicamente, el carácter específico “pragmático” de la pra¢gmata es
precisamente lo que los griegos dejaron en la oscuridad; pensaron en estos
"proximalmente" como "meras cosas". Llamaremos a esas entidades que encontramos
en la preocupación "equipo" [Zeug].
(Heidegger, 1962, págs. 96-97)
Machine Translated by Google

Otras cosas: IA, robots y sociedad 53

De acuerdo con el análisis de Heidegger, las cosas no se experimentan, al menos


inicialmente, como meras entidades en el mundo. Siempre están pragmáticamente situados
y caracterizados en términos de nuestros compromisos e interacciones con el mundo en
que vivimos. Por eso, las cosas se revelan ante todo como “equipos”, útiles para nuestros
empeños y objetivos. “El estatus ontológico o el tipo de ser que pertenece a tal equipo”,
explica Heidegger (1962), “se exhibe principalmente como 'listo para usar' o Zuhandenheit,
lo que significa que algo se convierte en lo que es o adquiere su propia propiedad. 'carácter
de cosa' cuando lo usamos para algún propósito particular” (p. 98). De acuerdo con
Heidegger, entonces, el estado ontológico fundamental, o modo de ser, que pertenece a
las cosas se exhibe principalmente como "listo para usar", lo que significa que algo se
convierte en lo que es o adquiere su propio "carácter de cosa" al llegar a ser. puesto en uso
para algún propósito particular. Un martillo, uno de los principales ejemplos de Heidegger,
sirve para construir una casa que nos proteja de los elementos; un bolígrafo es para escribir
un ensayo; un zapato está diseñado para soportar la actividad de caminar. Todo es lo que
es en tener un “para qué” o un destino al que siempre y ya se refiere. Todo, pues, se revela
ante todo como herramienta o instrumento útil a nuestros propósitos, necesidades y
proyectos.1
Este modo de existencia, lo que Graham Harman (2002) llama “ser-herramienta”, no
solo se aplica a los artefactos humanos, como martillos, bolígrafos y zapatos, sino que
también describe la condición ontológica básica de los objetos naturales, que son, como
Heidegger ( 1962) explica, descubierto en el proceso de puesta en uso: “La madera es un
bosque de madera, la montaña una cantera de roca, el río es fuerza hidráulica, el viento es
viento 'en las velas'” (p. 100). Por lo tanto, todo existe y se convierte en lo que es en la
medida en que es útil para algún propósito humanamente definido. Las cosas no están
simplemente ahí afuera en una especie de estado crudo y desnudo, sino que llegan a ser lo
que son en términos de cómo ya se ponen a trabajar y se usan como equipo para vivir. Y
esto es lo que hace que las cosas sean difíciles de ver o percibir. Todo lo que está a mano
es esencialmente transparente, anodino e incluso invisible. “La peculiaridad”, escribe
Heidegger (1962), “de lo que está próximo a la mano es que, en su disponibilidad a la mano,
debe, por así decirlo, retirarse para estar disponible de manera bastante auténtica. . Aquello
con lo que nuestro trato cotidiano reside próximamente no son las herramientas en sí
mismas. Por el contrario, lo que nos preocupa principalmente es el trabajo” (p. 99). O como
explica Michael Zimmerman (1990) a través del martillo de Heidegger: “Al martillar la suela
de un zapato, el zapatero no se da cuenta del martillo. En cambio, la herramienta es en
efecto transparente como una extensión de su mano... Para que las herramientas funcionen
correctamente, deben ser 'invisibles', en el sentido de que desaparecen a favor del trabajo que se está realiza
Esta comprensión de las cosas se puede correlacionar con la "teoría instrumental de la
tecnología", que Heidegger aborda posteriormente en The Question Concerning Technology
(1977). Como lo ha resumido Andrew Feenberg (1991), “la teoría instrumentalista ofrece la
visión de la tecnología más ampliamente aceptada. Se basa en la idea de sentido común
de que las tecnologías son 'herramientas' listas para servir a los propósitos de los
usuarios” (p. 5). Y debido a que una herramienta o un instrumento “se considera 'neutral',
sin contenido valorativo propio”, se evalúa una cosa tecnológica.
Machine Translated by Google

54 David J. Gunkel

no en sí mismo, sino sobre la base de los empleos particulares que han sido operacionalizados
por su diseñador, fabricante o usuario humano. En consecuencia, los dispositivos técnicos,
sin importar cuán sofisticados o autónomos parezcan o estén diseñados para ser, generalmente
no se consideran el agente responsable de las acciones que se realizan con o a través de
ellos. “La moralidad”, como señala J. Storrs Hall (2001), “descansa sobre los hombros
humanos, y si las máquinas cambiaron la facilidad con la que se hacían las cosas, no
cambiaron la responsabilidad de hacerlas. Las personas siempre han sido los únicos 'agentes
morales'” (p. 2). Para decirlo en términos coloquiales (que, sin embargo, se inspiran y remiten
al ejemplo del martillo de Heidegger): “Es un pobre carpintero el que culpa a sus herramientas”.

Esta forma de pensar no solo suena sensata y razonable, sino que es una de las
suposiciones estándar desplegadas en el campo de la tecnología y la ética informática.
De acuerdo con la formulación de Deborah Johnson (1985), “la ética informática resulta ser el
estudio de los seres humanos y la sociedad: nuestras metas y valores, nuestras normas de
comportamiento, la forma en que nos organizamos y asignamos derechos y responsabilidades,
etc.” ( pág. 6). Las computadoras, reconoce, a menudo "instrumentalizan" estos valores y
comportamientos humanos de maneras innovadoras y desafiantes, pero la conclusión es y
sigue siendo la forma en que los agentes humanos diseñan y usan (o abusan) de dicha tecnología.
Entendidos de esta manera, los sistemas informáticos, por más automáticos, independientes
o aparentemente inteligentes que puedan llegar a ser, “no son ni podrán ser nunca agentes
morales (autónomos, independientes)” (Johnson, 2006, p. 203). Siempre serán, como todas
las demás cosas, instrumentos de valor humano, toma de decisiones y acción.

Otro tipo de cosas


Esta forma de pensar instrumentalista no solo suena razonable, sino que obviamente es útil.
Es, se podría decir, instrumental para analizar y responder preguntas relacionadas con la
conducta adecuada y la responsabilidad social en la era de dispositivos y sistemas tecnológicos
cada vez más complejos. Y tiene la clara ventaja de que ubica la responsabilidad en una
posición de sujeto ampliamente aceptada y aparentemente intuitiva, en la toma de decisiones
y acciones humanas. Al mismo tiempo, sin embargo, esta formulación particular también tiene
importantes limitaciones teóricas y prácticas, especialmente en lo que se refiere (o no) a las
innovaciones recientes. Consideremos tres ejemplos que no solo complican los supuestos
operativos y las consecuencias de la teoría instrumental, sino que también requieren nuevas
formas de percibir y teorizar los desafíos sociales y las oportunidades de las cosas.2

cosas que hablan


Desde el principio, es la comunicación, y específicamente, una forma estrictamente restringida
de diálogo interpersonal conversacional, lo que proporciona al campo de la inteligencia artificial
(IA) su caracterización definitiva y su caso de prueba. Esto es inmediatamente evidente en el
documento de establecimiento de la agenda al que se atribuye la definición de la máquina.
Machine Translated by Google

Otras cosas: IA, robots y sociedad 55

inteligencia artificial, "Computing Machinery and Intelligence" de Alan Turing, que se publicó
por primera vez en la revista Mind en 1950. Aunque el término "inteligencia artificial" es un
producto de la Conferencia de Dartmouth de 1956, es el artículo seminal de Turing y el "juego
de imitación” que describe, lo que ahora se llama rutinariamente “la prueba de Turing”, que
define y caracteriza el campo. Como explicó Turing (2004) en una entrevista de la BBC de
1952:

La idea de la prueba es que la máquina tiene que tratar de fingir ser un hombre,
respondiendo a las preguntas que se le hacen, y solo pasará si la simulación es
razonablemente convincente. Una parte considerable de un jurado, que no debería ser
experto en máquinas, debe dejarse engañar por la pretensión. No se les permite ver la
máquina en sí, eso lo haría demasiado fácil. Así que la máquina se mantiene en una
habitación lejana y el jurado puede hacerle preguntas, que se transmiten a través de
ella.
(pág. 495)

De acuerdo con las estipulaciones de Turing, si una máquina es capaz de simular con
éxito a un ser humano en interacciones comunicativas hasta el punto de que los interlocutores
humanos (o "un jurado", como los llama Turing en la entrevista de 1952) no pueden saber si
están hablando con un máquina u otro ser humano, entonces ese dispositivo debería
considerarse inteligente (Gunkel, 2012b).
En el momento en que Turing publicó el artículo que proponía este caso de prueba,
estimó que el punto de inflexión, el punto en el que una máquina sería capaz de jugar con
éxito el juego de la imitación, estaba al menos medio siglo en el futuro. .
“Creo que dentro de unos cincuenta años será posible programar computadoras, con una
, para que
capacidad de almacenamiento de aproximadamente 109jueguen
así quealunjuego
interrogador
de la imitación
promedio
no tendrá más del 70 por ciento de posibilidades de hacer la identificación correcta después
de cinco minutos de interrogatorio. (Turing, 1999, p.
44). No tomó tanto tiempo. Ya en 1966, Joseph Weizenbaum demostró una aplicación simple
de procesamiento de lenguaje natural (NLP) que podía conversar con interrogadores humanos
de tal manera que pareciera ser otra persona.
ELIZA, como se llamaba la aplicación, era lo que ahora reconocemos como un "bot de
charla". Este proto-chatterbot3 era en realidad una pieza de programación bastante simple,
“que consistía principalmente en métodos generales para analizar oraciones y fragmentos de
oraciones, ubicar las llamadas palabras clave en textos, ensamblar oraciones a partir de
fragmentos, etc. En otras palabras, no tenía un marco contextual incorporado de universo de
discurso. Esto se le suministró mediante un 'guión'. En cierto sentido, ELIZA era una actriz
que dominaba un conjunto de técnicas pero que no tenía nada propio que decir”
(Weizenbaum, 1976, pág. 188). A pesar de esta arquitectura bastante simple, el programa de
Weizenbaum demostró lo que Turing había predicho inicialmente:

ELIZA creó la ilusión más notable de haber entendido en la mente de muchas personas
que conversaron con ella. Gente que sabía muy bien
Machine Translated by Google

56 David J. Gunkel

que estaban conversando con una máquina pronto olvidaron ese hecho, al igual que los
asistentes al teatro, presas de una incredulidad suspendida, pronto olvidan que la acción
que están presenciando no es “real”. Esta ilusión era especialmente fuerte y se aferraba
con más tenacidad entre las personas que saben poco o nada sobre computadoras. A
menudo pedían que se les permitiera conversar con el sistema en privado y, después de
conversar con él durante un tiempo, insistían, a pesar de mis explicaciones, en que la
máquina realmente los entendía.
(Weizenbaum, 1976, pág. 189)

Desde el debut de ELIZA, ha habido numerosos avances en el diseño de terbots de chat, y


estos dispositivos ahora pueblan muchos de los espacios sociales en línea en los que vivimos,
trabajamos y jugamos. Como resultado de esta proliferación, no es raro que los usuarios asuman
que están hablando con otra persona (humana), cuando en realidad solo están hablando con un
chatterbot. Este fue el caso de Robert Epstein, un doctorado de la Universidad de Harvard y ex
editor de Psychology Today, quien se enamoró y tuvo una "aventura" en línea de cuatro meses
con un chatterbot (Epstein, 2007). Esto fue posible no porque el bot, que recibió el nombre de
"Ivana", fuera de alguna manera inteligente, sino porque el comportamiento conversacional del
bot era, en palabras de Byron Reeves y Clifford Nass (1996), "lo suficientemente cercano al
humano para fomentar la comunicación social". respuestas” (pág.
22). Y esta aproximación no es necesariamente “una característica de la sofisticación del diseño
de bots, sino de la comunicación de bajo ancho de banda del espacio social en línea”, donde es
mucho más fácil simular de manera convincente a un agente humano (Mowbray, 2002, p. 2).
A pesar de este conocimiento, a pesar de expertos educados y bien informados como Epstein
(2007), quien admitió abiertamente que "sé sobre esas cosas y ciertamente debería haberlo
sabido mejor" (p. 17), estas implementaciones de software pueden tener efectos adversos en
ambos. el usuario y las comunidades en línea en las que operan. Para colmo (o quizás más
interesante) el problema no es algo exclusivo de las relaciones interpersonales amorosas. “El
auge de los bots sociales”, como señala con precisión Andrea Peterson (2013), “no solo es malo
para la vida amorosa, sino que podría tener implicaciones más amplias para nuestra capacidad
de confiar en la autenticidad de casi todas las interacciones que tenemos en línea” (pág. . 1).
Caso en cuestión: política nacional y gobernabilidad democrática. En un estudio realizado
durante la campaña presidencial de EE. UU. de 2016, Alessandro Bessi y Emilio Ferrara (2016)
encontraron que “la presencia de bots en las redes sociales puede afectar negativamente la
discusión política democrática en lugar de mejorarla, lo que a su vez puede alterar la opinión
pública y poner en peligro la integridad de la elección presidencial” (p. 1).

Pero, ¿quién o qué es culpable en estas circunstancias? La teoría instrumental generalmente


lleva esas preguntas al diseñador de la aplicación, y así es precisamente como Epstein (2007)
dio sentido a sus propias experiencias, culpando (o acreditando) a "un programador informático
muy presumido y muy anónimo" que él asume. estaba ubicado en algún lugar de Rusia (p. 17).
Pero las cosas ya son más complicadas. Epstein es, al menos, parcialmente responsable de
“usar” el bot y decidir conversar con él, y la comunidad en línea en la que Epstein conoció a
Ivana es
Machine Translated by Google

Otras cosas: IA, robots y sociedad 57

posiblemente responsable de permitir (quizás incluso alentar) tales "engaños" en primer lugar. Por esta razón,
la asignación de culpabilidad no es tan simple como podría parecer a primera vista. Como argumenta
Mowbray (2002), interacciones como esta

mostrar que un bot puede causar daño a otros usuarios o a la comunidad en su conjunto por la
voluntad de sus programadores u otros usuarios, pero que también puede causar daño sin culpa de
nadie debido a la combinación de circunstancias que involucran alguna combinación de su
programación , las acciones y estados mentales o emocionales de los usuarios humanos que
interactúan con él, el comportamiento de otros bots y del entorno, y la economía social de la

comunidad.

(pág. 4)

A diferencia de la inteligencia general artificial (AGI), que presumiblemente ocuparía una posición de
sujeto razonablemente cercana a la de otro agente humano, estas cosas aparentemente sin sentido pero
muy sociales simplemente enturbian el agua (lo que probablemente sea peor) al complicar y dejar preguntas
sin decidir sobre la agencia. e instrumentalidad.

Cosas que piensan por sí mismas


La arquitectura estándar de chatterbot, como muchas aplicaciones informáticas, depende de programadores
que codifican instrucciones explícitas paso a paso, aparentemente un conjunto de declaraciones condicionales
anidadas que están diseñadas para responder a varios tipos de entradas y estados de la máquina. Para que
ELIZA, o cualquier otro chatterbot, "hable" con un usuario humano, los programadores humanos deben
anticipar todo lo que se le pueda decir al bot y luego codificar las instrucciones para generar una respuesta
adecuada. Si, por ejemplo, el usuario escribe “Hola, cómo estás”. La aplicación se puede diseñar para
identificar este patrón de palabras y responder con un resultado predeterminado, lo que Weizenbaum llamó
un "guión". Sin embargo, el aprendizaje automático proporciona un enfoque alternativo para el diseño y
desarrollo de aplicaciones. “Con el aprendizaje automático”, como explica la revista Wired , “los programadores
no codifican las computadoras con instrucciones. Los entrenan ” (Tanz, 2016, p. 77). Aunque esta alternativa
no es nada nuevo, Arthur Samuel la propuso y demostró originalmente en 1956, recientemente ganó
popularidad a través de algunos eventos muy publicitados que involucraron a AlphaGo de Google DeepMind,
que venció a uno de los jugadores más célebres de los notoriamente difíciles. el juego de mesa Go, y el bot
de Twitter de Microsoft, Tay.ai, que aprendió a convertirse en un racista neonazi que escupe odio después
de interactuar con los usuarios en Internet.

Tanto AlphaGo como Tay son sistemas de inteligencia artificial que utilizan una arquitectura conexionista.
AlphaGo, como explica Google DeepMind (2016), “combina la búsqueda del árbol Monte-Carlo con redes
neuronales profundas que han sido entrenadas por aprendizaje supervisado, de juegos de expertos humanos
y por aprendizaje reforzado de
Machine Translated by Google

58 David J. Gunkel

juegos de auto juego.” En otras palabras, AlphaGo no juega el juego de Go siguiendo


un conjunto de movimientos ingeniosamente diseñados descritos y definidos en código
por programadores humanos. La aplicación está diseñada para formular sus propias
instrucciones a partir del descubrimiento de patrones en los datos existentes que se
han ensamblado a partir de juegos de jugadores humanos expertos (“aprendizaje
supervisado”) y de la experiencia de prueba y error de jugar el juego contra sí mismo
(“aprendizaje por refuerzo”). ”). Aunque se sabe menos sobre el funcionamiento interno
exacto de Tay, Microsoft explica que el sistema "ha sido construido extrayendo datos
públicos relevantes", es decir, entrenando sus redes neuronales en datos anónimos
obtenidos de las redes sociales, y fue diseñado para evolucionar su comportamiento.
de interactuar con usuarios en redes sociales como Twitter, Kik y GroupMe (Microsoft, 2016a).
Lo que ambos sistemas tienen en común es que los ingenieros que los diseñaron y
construyeron no tienen idea de qué harán estas cosas una vez que estén en
funcionamiento. Como ha explicado Thore Graepel, uno de los creadores de AlphaGo:
“Aunque hemos programado esta máquina para jugar, no tenemos idea de qué
movimientos se le ocurrirán. Sus movimientos son un fenómeno emergente del
entrenamiento. Simplemente creamos los conjuntos de datos y los algoritmos de
entrenamiento. Pero los movimientos que luego se le ocurren están fuera de nuestras
manos” (Metz, 2016, p. 1). En consecuencia, los sistemas de aprendizaje automático,
como AlphaGo, están diseñados intencionalmente para hacer cosas que sus
programadores no pueden anticipar o controlar por completo. En otras palabras, ahora
tenemos cosas autónomas (o al menos semiautónomas) que de una forma u otra tienen
“mente propia”. Y aquí es donde las cosas se ponen interesantes, especialmente
cuando se trata de cuestiones de responsabilidad social y comportamiento.
AlphaGo fue diseñado para jugar Go y demostró su habilidad al vencer a un jugador
humano experto. Entonces, ¿quién ganó? ¿Quién se lleva el galardón? ¿Quién derrotó
al campeón de Go Lee Sedol? Siguiendo los dictados de la teoría instrumental, las
acciones emprendidas con la computadora serían atribuidas a los programadores
humanos que inicialmente diseñaron el sistema y son capaces de responder por lo que
hace o deja de hacer. Pero esta explicación no es necesariamente válida para una
aplicación como AlphaGo, que se creó deliberadamente para hacer cosas que superan
el conocimiento y el control de sus diseñadores humanos. De hecho, en la mayoría de
los informes sobre este evento histórico, no es Google ni los ingenieros de DeepMind a
quienes se les atribuye la victoria. Es AlphaGo. En las clasificaciones publicadas, por
ejemplo, AlphaGo es nombrado el jugador número dos del mundo (Go Ratings, 2016).
Las cosas se complican aún más con Tay, la IA adolescente malhablada de Microsoft,
cuando uno hace la pregunta: ¿Quién es responsable de los comentarios intolerantes de Tay en Twitter?
De acuerdo con la forma de pensar instrumentalista estándar, tendríamos que culpar a
los programadores de Microsoft, que diseñaron la aplicación para poder hacer estas
cosas. Pero los programadores obviamente no se propusieron crear un bot de Twitter
racista. Tay desarrolló este comportamiento reprensible aprendiendo de las interacciones
con usuarios humanos en Internet. Entonces, ¿cómo respondió Microsoft a esto?
¿Cómo explicaban las cosas?
Machine Translated by Google

Otras cosas: IA, robots y sociedad 59

Inicialmente, un portavoz de la empresa, en modo de control de daños, envió un correo


electrónico a Wired, The Washington Post y otras organizaciones de noticias, que buscaban
culpar a la víctima. Como explicó el vocero:

El chatbot de IA Tay es un proyecto de aprendizaje automático, diseñado para la


participación humana. Es tanto un experimento social y cultural como técnico.
Desafortunadamente, dentro de las primeras 24 horas de estar en línea, nos dimos
cuenta de un esfuerzo coordinado por parte de algunos usuarios para abusar de las
habilidades de comentarios de Tay para que Tay respondiera de manera inapropiada.
Como resultado, desconectamos a Tay y estamos haciendo ajustes.
(Risely, 2016)

Según Microsoft, no son los programadores ni la corporación los responsables del discurso de
odio. Es culpa de los usuarios (o algunos usuarios) que interactuaron con Tay y le enseñaron
a ser intolerante. El racismo de Tay, en otras palabras, es culpa nuestra. Posteriormente, el 25
de marzo de 2016, Peter Lee, vicepresidente de Microsoft Research, publicó la siguiente
disculpa en el blog oficial de Microsoft:

Como muchos de ustedes ya saben, el miércoles lanzamos un chatbot llamado Tay.


Lamentamos profundamente los tweets ofensivos e hirientes involuntarios de Tay, que
no representan quiénes somos o qué representamos, ni cómo diseñamos a Tay. Tay
ahora está fuera de línea y buscaremos traer a Tay de regreso solo cuando estemos
seguros de que podemos anticipar mejor las intenciones maliciosas que entran en
conflicto con nuestros principios y valores.
(Microsoft, 2016b)

Pero esta disculpa también es frustrantemente insatisfactoria o interesante (todo depende de


cómo se mire). De acuerdo con la explicación cuidadosamente redactada de Lee, Microsoft
solo es responsable de no anticipar el mal resultado; no se hace responsable de los tweets
ofensivos. Para Lee, es Tay quien (o “eso”, y las palabras importan aquí) es nombrado y
reconocido como la fuente de las “palabras e imágenes terriblemente inapropiadas y
censurables” (Microsoft, 2016b). Y dado que Tay es una especie de "menor" (una IA
adolescente) bajo la protección de su corporación matriz, Microsoft necesitaba intervenir,
disculparse por el mal comportamiento de su "hija" y poner a Tay en un tiempo fuera.

Aunque la medida en que uno podría asignar "agencia" y "responsabilidad" a estos


mecanismos sigue siendo un tema controvertido, lo que no se debate es el hecho de que las
reglas del juego han cambiado significativamente. Como señala Andreas Matthias (2004), al
resumir su estudio sobre los autómatas que aprenden:

Actualmente hay máquinas en desarrollo o ya en uso que son capaces de decidir sobre
un curso de acción y actuar sin intervención humana.
vención Las reglas por las que actúan no se fijan durante la producción.
Machine Translated by Google

60 David J. Gunkel

proceso, pero puede ser cambiado durante la operación de la máquina, por la propia máquina. Esto es lo
que llamamos aprendizaje automático. Tradicionalmente responsabilizamos al operador/fabricante de la
máquina por las consecuencias de su funcionamiento oa “nadie” (en los casos en que no se pueda
identificar una falla personal). Ahora se puede demostrar que existe una clase cada vez mayor de
acciones de la máquina, donde las formas tradicionales de atribución de responsabilidad no son
compatibles con nuestro sentido de justicia y el marco moral de la sociedad porque nadie tiene suficiente
control sobre las acciones de la máquina para poder asumir responsabilidad por ellos.

(pág. 177)

En otras palabras, la teoría instrumental de las cosas, que había atado efectivamente la acción de las máquinas a
la agencia humana, ya no se aplica adecuadamente a los mecanismos que han sido diseñados deliberadamente
para operar y exhibir alguna forma, por rudimentaria que sea, de acción independiente o decisión autónoma.
haciendo.
Contrariamente a la forma habitual de pensar instrumentalista, ahora tenemos cosas que están deliberadamente
diseñadas para exceder nuestro control y nuestra capacidad de responder o responder por ellas.

Cosas que son más que cosas


En julio de 2014, el mundo vio por primera vez a Jibo. ¿Quién o qué es Jibo? Esa es una pregunta interesante e
importante. En un video promocional diseñado para aumentar la inversión de capital a través de pedidos
anticipados, la pionera de la robótica social Cynthia Breazeal presentó a Jibo con la siguiente explicación: “Este
es tu automóvil. Esta es tu casa. Este es tu cepillo de dientes. Estas son tus cosas. Pero estas [y la cámara se
acerca a una fotografía familiar] son las cosas que importan. Y en algún punto intermedio está este tipo.
Presentamos a Jibo, el primer robot familiar del mundo” (Jibo, 2014).

Ya sea que se reconozca explícitamente como tal o no, este video promocional aprovecha una distinción ontológica
crucial que Jacques Derrida (2005) llama la diferencia entre "quién" y "qué" (p. 80). Del lado del “qué” tenemos
aquellas cosas que son meros instrumentos: nuestro automóvil, nuestra casa y nuestro cepillo de dientes. Según
la forma habitual de pensar, estas cosas son meros instrumentos o herramientas que no tienen ningún estatus
independiente en absoluto. Podríamos preocuparnos por el impacto que las emisiones de los automóviles tienen
sobre el medio ambiente (o quizás dicho de manera más precisa, sobre la salud y el bienestar de los demás seres
humanos que comparten este planeta con nosotros), pero el automóvil en sí mismo no es un elemento socialmente
significativo. sujeto. Por otro lado están, como lo describe el video, “esas cosas que importan”. Estas cosas no
son cosas, estrictamente hablando, sino las otras personas que cuentan como Otros social y moralmente
significativos.

A diferencia del automóvil, la casa o el cepillo de dientes, estos Otros tienen un estatus independiente y pueden
ser beneficiados o perjudicados por nuestras decisiones y acciones.
Jibo, se nos dice, ocupa un lugar que se sitúa en algún lugar entre lo que son meras cosas y aquellos Otros
que realmente importan. En consecuencia, Jibo no es un instrumento más, como el automóvil o el cepillo de
dientes. Pero él/ella/ello (y
Machine Translated by Google

Otras cosas: IA, robots y sociedad 61

la elección del pronombre no deja de ser importante) tampoco es un miembro más de la familia
retratada en la fotografía. Jibo habita un lugar entre estas dos categorías ontológicas. Es una especie
de “cuasi-otro” (Ihde, 1990, p. 107). Cabe señalar que esto no tiene precedentes. Ya conocemos
otras entidades que ocupan una posición social ambivalente similar, como el perro de la familia. De
hecho, los animales, que desde la época de René Descartes son el otro de la máquina (Gunkel,
2012a, p. 60), proporcionan un buen precedente para comprender la naturaleza cambiante de las
cosas frente a los robots sociales, como Jibo. “Observando la tecnología de punta”, escribe Kate
Darling (2012), “nuestros robots no se acercan en nada a la inteligencia y complejidad de los
humanos o los animales, ni alcanzarán esta etapa en un futuro cercano. Y, sin embargo, si bien
parece inverosímil que el estatus legal de un robot difiera del de una tostadora, ya existe una
diferencia notable en la forma en que interactuamos con ciertos tipos de objetos robóticos” (p. 1).
Esto ocurre, continúa Darling, debido a nuestras tendencias a antropomorfizar las cosas al proyectar
en ellas capacidades cognitivas, emociones y motivaciones que no necesariamente existen en el
mecanismo per se. Pero es esta reacción emocional la que exige nuevas formas de obligación frente
a las cosas. “Dado que muchas personas ya tienen una fuerte opinión sobre el 'abuso' de los robots
sociales de última generación, es posible que pronto se perciba más ampliamente como fuera de
línea con nuestros valores sociales tratar a los compañeros robóticos de una manera en la que no lo
haríamos. nuestras mascotas” (Darling, 2012, p. 1).

Jibo y otros robots sociales similares no son ciencia ficción. ya son o


pronto estará en nuestras vidas y en nuestros hogares. Como lo describe Breazeal (2004):

un robot sociable es capaz de comunicarse e interactuar con nosotros, comprendernos e


incluso relacionarse con nosotros, de forma personal. Debería ser capaz de comprendernos
a nosotros mismos ya sí mismo en términos sociales. Nosotros, a su vez, deberíamos poder
entenderlo en los mismos términos sociales: poder relacionarnos con él y empatizar con él...
En resumen, un robot sociable es socialmente inteligente a la manera humana, e interactuar
con él es como interactuar con otra persona.
(pág. 1)

Frente a estas entidades interactivas y situadas socialmente, vamos a tener que decidir si son meras
cosas como nuestro automóvil, nuestra casa y nuestro cepillo de dientes; alguien que importa como
un miembro más de la familia; o algo totalmente diferente que se sitúa entre uno y otro. Sin embargo,
de cualquier manera que esto se decida, estas cosas sin duda desafiarán la forma en que
normalmente distinguimos entre quién debe ser considerado otro sujeto social y qué sigue siendo
un mero instrumento o herramienta.

Entre un bot y un lugar difícil

Aunque las cosas se experimentan y se revelan inicialmente en el modo de ser que Heidegger llama
Zuhandenheit (por ejemplo, instrumentos que son útiles o convenientes para nuestros propósitos y
esfuerzos), las cosas no terminan necesariamente aquí. También pueden, como Heidegger
Machine Translated by Google

62 David J. Gunkel

(1962), se revelan posteriormente como presentes a la mano, o Vorhandenheit, revelándose


a nosotros como objetos que son o se vuelven, por una razón u otra, no listos para la mano
(p. 103). Esto ocurre cuando las cosas, que habían sido instrumentos virtualmente invisibles,
dejan de funcionar como deberían (o han sido diseñadas para funcionar) y se interponen en
el camino de su propia instrumentalidad. “El carácter equipamental de las cosas”, escribe
Silvia Benso (2000), “se aprehende explícitamente vía negativa cuando una cosa revela su
inutilidad, o falta, o '“obstruye el camino'” (p. 82). Y esto es lo que sucede con cosas como
chatterbots, aplicaciones de aprendizaje automático y robots sociales en la medida en que
interrumpen o desafían el buen funcionamiento de su instrumentalidad. De hecho, lo que
vemos frente a estas cosas no es solo la falla de una pieza particular del equipo, por ejemplo,
la falla de un bot como “Ivana” para pasar exitosamente como otra persona en interacciones
conversacionales o la falla inesperada e inesperada. efecto sorprendente de un bot de Twitter
como Tay que aprendió a ser un racista neonazi, pero el límite de la forma de pensar
instrumentalista estándar en sí misma. En otras palabras, lo que vemos en la cara de los
chatterbots, los algoritmos de aprendizaje automático y los robots sociales son cosas que
desafían y socavan intencionalmente la forma estándar de pensar y dar sentido a las cosas.
Responder a este desafío (u oportunidad) conduce en dos direcciones aparentemente
diferentes y opuestas.

Instrumentalismo Redux
Podemos tratar de responder a estas cosas como normalmente lo hemos hecho, tratando
estos mecanismos cada vez más sociales e interactivos como meros instrumentos o
herramientas. Los “sistemas informáticos”, como explica Johnson (2006), “son producidos,
distribuidos y utilizados por personas involucradas en prácticas sociales y actividades
significativas. Esto es tan cierto para los sistemas informáticos actuales como lo será para los
sistemas informáticos del futuro. No importa qué tan independientes, automáticos e interactivos
sean los sistemas informáticos del futuro, serán el producto (directo o indirecto) del
comportamiento humano, las instituciones sociales humanas y las decisiones humanas” (p.
197). Este argumento es persuasivo, precisamente porque se nutre y se sustenta en la comprensión habitual de
Las cosas, sin importar cuán sofisticadas, inteligentes y sociales sean, parezcan o puedan
llegar a ser, son y seguirán siendo herramientas de la acción humana, nada más. Si algo sale
mal (o sale bien) debido a las acciones o inacciones de un bot o alguna otra cosa, siempre
hay alguien que es el responsable final de lo que sucede con él. Encontrar a esa persona (o
personas) puede requerir clasificar capa tras capa de mediación tecnológica, pero siempre
hay alguien, específicamente algún ser humano, que se supone que es responsable de ello.
De acuerdo con esta forma de pensar, todas las cosas, sin importar cuán sofisticadas o
interactivas parezcan, son en realidad “tecnología del Mago de Oz”. 4 Siempre hay “un
hombre detrás de la cortina”, moviendo los hilos y responsable de lo que sucede . . Y esta
línea de razonamiento es totalmente consistente con las prácticas legales actuales. “Como
una herramienta para ser utilizada por seres humanos”, argumenta Matthew Gladden (2016),
“las cuestiones de responsabilidad legal... giran en torno a cuestiones bien establecidas de
responsabilidad del producto por defectos de diseño (Calverley, 2008, p. 533; Datteri,
Machine Translated by Google

Otras cosas: IA, robots y sociedad 63

2013) por parte de su productor, negligencia profesional por parte de su operador humano y, en un
nivel más generalizado, responsabilidad política de los organismos legislativos y de licencias que
permitieron la creación y el uso de dichos dispositivos” (p. 184). ).
Pero esta reaplicación estricta del pensamiento instrumentalista, con toda su utilidad y aparente
sencillez, descuida la presencia social de estas cosas y los efectos que tienen dentro de las redes
de la cultura contemporánea. Somos, sin duda, quienes diseñamos, desarrollamos e implementamos
estas tecnologías, pero lo que sucede con ellas una vez que se “liberan en la naturaleza” no es
necesariamente predecible ni está completamente bajo nuestro control. De hecho, en situaciones
en las que algo salió mal, como el incidente de Tay, o salió bien, como fue el caso de AlphaGo,
identificar a la parte o partes responsables detrás de estas cosas es al menos tan difícil como
determinar la "verdadera identidad" de la “persona real” detrás del avatar. En consecuencia, cosas
como los chatterbots sin mente, como señala Mowbray (2002), no necesariamente necesitan
inteligencia, conciencia, sensibilidad, etc., a nivel humano para complicar las cuestiones relacionadas
con la responsabilidad y la posición social. Asimismo, como ya demostraron Reeves y Nass (1996)
hace más de dos décadas con cosas significativamente menos sofisticadas que estas recientes
innovaciones tecnológicas, nos gustan las cosas. Y nos gustan las cosas incluso cuando sabemos
que son solo cosas:

Las computadoras, en la forma en que se comunican, instruyen y se turnan para interactuar,


están lo suficientemente cerca de los humanos como para fomentar las respuestas sociales.
El estímulo necesario para tal reacción no tiene por qué ser mucho. Siempre que haya
algunos comportamientos que sugieran una presencia social, las personas responderán en
consecuencia... En consecuencia, cualquier medio que esté lo suficientemente cerca recibirá
un trato humano, aunque las personas sepan que es una tontería y aunque probablemente
lo nieguen después.
(pág. 22)

Por esta razón, recordar a los usuarios que solo están interactuando con "cosas sin sentido" podría
ser la "información correcta", pero hacerlo suele ser tan ineficaz como decirles a los espectadores
que la acción que ven en la pantalla no es real. Lo sabemos, pero eso no necesariamente cambia
las cosas. Entonces, lo que tenemos es una situación en la que nuestra teoría sobre las cosas, una
teoría que tiene una historia considerable detrás y que se ha determinado que es tan aplicable a
dispositivos simples como herramientas manuales como a sistemas tecnológicos complejos, parece
estar fuera de sincronización. con las experiencias reales que tenemos con las cosas en una
variedad de situaciones y circunstancias. En otras palabras, la forma de pensar instrumentalista
puede ser ontológicamente correcta, pero es socialmente inepta y fuera de onda.

Pensar de otra manera o el giro relacional


Como alternativa, podemos pensar las cosas de otra manera. Esta otra forma de pensar
efectivamente invierte el guión de la forma estándar de tratar las cosas según la cual, como lo
describe Luciano Floridi (2013), lo que algo es determina cómo se trata (p. 116).
Machine Translated by Google

64 David J. Gunkel

Pensar de otro modo invierte y distorsiona deliberadamente este procedimiento al hacer


que el “qué” dependa y se derive del “cómo”. La ventaja de esta forma de proceder es
que no solo proporciona un método completamente diferente para responder a las
oportunidades y desafíos sociales de todo tipo de cosas, como chatterbots, algoritmos de
aprendizaje y robots sociales, sino que también formula una forma de pensar
completamente diferente. sobre las cosas frente a los otros, y otras formas de alteridad.
Siguiendo los contornos de esta forma alternativa de pensar, el estatus de algo —su
situación social, moral e incluso ontológica— se decide y se confiere no sobre la base de
algún criterio predeterminado o capacidad (o falta de ella), sino frente a condiciones
reales. relaciones e interacciones sociales. “La consideración moral”, como la describe
Mark Coeckelbergh (2010), “ya no se ve como algo 'intrínseco' a la entidad: en cambio,
se la ve como algo 'extrínseco': se atribuye a las entidades dentro de las relaciones
sociales y dentro de un contexto social” (p. 214). En otras palabras, cuando nos
encontramos e interactuamos con otros, ya sean otras personas humanas, otros tipos de
seres vivos como animales o plantas, el entorno natural o un bot socialmente interactivo,
esta otra entidad se sitúa ante todo en relación. para nosotros. En consecuencia, la
cuestión del estatuto de algo no depende necesariamente de lo que es en su esencia
sino de cómo él/ella (y el pronombre que viene a desplegarse en esta circunstancia no
es irrelevante) sobreviene ante nosotros y cómo decidimos responder (o no) “frente al
otro”, para usar una terminología tomada de Emmanuel Levinas (1969). En esta
transacción, “las relaciones son anteriores a las cosas relacionadas” (Callicott, 1989, p.
110), instituyendo lo que Anne Gerdes (2015), siguiendo a Coeckelbergh (2012, p. 49) y
a mí mismo (Gunkel, 2012a), ha llamado “el giro relacional”.

Este cambio de perspectiva, es importante señalar, no es solo un juego teórico, se ha


confirmado en numerosos ensayos experimentales y experiencias prácticas con las
cosas. Los estudios de la computadora como actor social (CASA) realizados por Reeves
y Nass (1996), por ejemplo, demostraron que los usuarios humanos otorgarán a las
computadoras una posición social similar a la de otra persona humana y esto ocurre
como producto de la interacción social extrínseca, independientemente de la composición
real (o “ser” como diría Heidegger) de la cosa en cuestión. Estos resultados, que se
obtuvieron en numerosos estudios empíricos con sujetos humanos, se han verificado de
forma independiente en dos experimentos recientes con robots, uno publicado en el
International Journal of Social Robotics (Rosenthal-von der Pütten et al., 2013), donde
los investigadores encontraron que los sujetos humanos responden emocionalmente a
los robots y expresan una preocupación empática por las máquinas independientemente
del conocimiento sobre el estado ontológico real del mecanismo, y otro que usa evidencia
fisiológica, medida por electroencefalografía, para documentar la capacidad de los
humanos para empatizar con lo que parece ser. ser "dolor de robot"
(Suzuki et al., 2015). Y esto sucede no solo con artefactos aparentemente inteligentes
en el entorno del laboratorio, sino también con casi cualquier objeto antiguo que tenga
alguna presencia social, como los Packbots de aspecto muy industrial que se utilizan en
el campo de batalla. Como ha informado Peter W. Singer (2009, p. 338), los soldados forman
Machine Translated by Google

Otras cosas: IA, robots y sociedad 65

Sorprendentemente estrechan lazos personales con el Packbot de sus unidades, dándoles


nombres, otorgándoles ascensos en el campo de batalla, arriesgando sus propias vidas
para proteger la de la máquina e incluso lamentando su "muerte". Esto sucede, explica
Singer, como producto de la forma en que el mecanismo se sitúa dentro de la unidad y el
papel social que juega en las operaciones de campo. Y sucede en oposición directa a lo
que de otra manera suena como buen sentido común: son solo cosas, instrumentos o
herramientas que no sienten nada.
Una vez más, esta decisión suena razonable y justificada. Extiende la consideración
a estas otras cosas socialmente conscientes e interactivas y reconoce, siguiendo las
predicciones de Wiener (1950, p. 16), que las situaciones sociales del futuro involucrarán
no solo interacciones de humano a humano sino relaciones entre humanos y humanos.
máquinas y máquinas y máquinas. Pero este cambio de perspectiva también tiene costos
significativos. A pesar de todas sus oportunidades, este enfoque está inevitable e
inevitablemente expuesto a la acusación de relativismo: “la afirmación de que no existen
creencias o valores universalmente válidos” (Ess, 1996, p. 204). Para decirlo sin rodeos,
si el estatus social de las cosas es relacional y está abierto a la negociación social, ¿no
corremos el riesgo de afirmar una especie de constructivismo social o relativismo moral?
Quizás uno debería responder a esta acusación no buscando una respuesta definitiva y
universalmente aceptada (que obviamente respondería a la acusación de relativismo
refugiándose y validando su opuesto), sino siguiendo la estrategia de Slavoj Žižek (2000)
de “respaldar plenamente lo que uno es acusado de” (p. 3). Así que sí, relativismo, pero
una versión extrema y cuidadosamente articulada del mismo. Es decir, un relativismo (o,
si se prefiere, un “relacionalismo”) que ya no puede ser comprendido por esa forma de
comprensión del término que lo convierte en el mero negativo y opuesto de un
universalismo ya privilegiado. El relativismo, por lo tanto, no necesariamente necesita ser
interpretado negativamente y criticado, como el mismo Žižek (2006) ha hecho a menudo,
como el epítome del multiculturalismo posmoderno enloquecido (p. 281). Se puede
entender de otra manera. “Relativismo”, como argumenta Robert Scott (1976),
“supuestamente, significa una sociedad sin estándares, o al menos un laberinto de
diferentes estándares… Más que una sociedad sin estándares, que es lo mismo que decir
que no hay sociedad en absoluto, el relativismo indica circunstancias en cuyos estándares
deben establecerse cooperativamente y renovarse repetidamente” (p. 264). Al respaldar
por completo esta forma de relativismo y seguirla hasta el final, lo que uno obtiene no es
necesariamente lo que podría haberse esperado, es decir, una situación en la que todo
vale y “todo está permitido”. En cambio, lo que se obtiene es una especie de pensamiento
socialmente atento que resulta mucho más receptivo y responsable frente a otras cosas.
Estas dos opciones anclan extremos opuestos de un espectro que puede llamarse la
cuestión de la máquina (Gunkel, 2012a). La forma en que decidamos responder a las
oportunidades y desafíos de esta pregunta tendrá un profundo efecto en la forma en que
conceptualizamos nuestro lugar en el mundo, a quiénes decidimos incluir en la comunidad
de sujetos socialmente significativos y qué cosas excluimos de esa comunidad.
consideración y por qué. Pero no importa cómo se decida, es una decisión, literalmente,
un corte que instituye la diferencia y marca la diferencia. Somos, por lo tanto, responsables tanto de
Machine Translated by Google

66 David J. Gunkel

decidir quién cuenta como otro sujeto y qué no lo es y, en el proceso, determinar


la forma en que percibimos el estado actual y la posibilidad futura de las relaciones
sociales.

notas
1 Una consecuencia de esta forma de pensar sobre las cosas es que todas las cosas se revelan y caracterizan
inicialmente como medios o algo a través de los cuales actúan los usuarios humanos. Para más información
sobre este tema, véase Heidegger y los medios (Gunkel y Taylor, 2014).
2 La identificación de estas dos alternativas también ha sido avanzada en la fenomenología de la tecnología
desarrollada por Don Ihde. En Technology and the Lifeworld, Ihde (1990) distingue entre “aquellas tecnologías
que puedo tomar en mi experiencia que a través de su semitransparencia permiten que el mundo se haga
inmediato” y “relaciones de alteridad en las que la tecnología se vuelve cuasi-otra, o la tecnología 'como' otra
con la que me relaciono” (p. 107).

3 Aunque Weizenbaum no utilizó el término “chatterbot”, se ha aplicado retroactivamente como resultado de los
esfuerzos de Michael Mauldin, fundador y científico jefe de Lycos, quien introdujo el neologismo en 1994 para
identificar una aplicación similar de PNL que finalmente llamó a Julia.

4 “Mago de Oz” es un término que se utiliza en los estudios de interacción humano-computadora (HCI, por sus
siglas en inglés) para describir procedimientos experimentales en los que los sujetos de prueba interactúan con
un sistema informático o robot que se supone que es autónomo pero que en realidad está controlado por un
experimentador que permanece oculto a la vista. El término fue introducido inicialmente por John F. Kelly a
principios de la década de 1980.

Referencias
Benso, S. (2000). El rostro de las cosas: Un lado diferente de la ética. Albany, Nueva York: Universidad Estatal de
Prensa de Nueva York.

Bessi, A. y Ferrara, E. (2016). Los bots sociales distorsionan la discusión en línea de las elecciones presidenciales
de EE. UU. de 2016. Primer lunes, 21(11). http://firstmonday.org/ojs/index.php/fm/article/view/7090/5653

Breazeal, CL (2004). Diseño de robots sociables. Cambridge, MA: MIT Press.


Callicott, JB (1989). En defensa de la ética de la tierra: Ensayos de filosofía ambiental. Albany, Nueva York: Prensa
de la Universidad Estatal de Nueva York.
Calverley, DJ (2008). Imaginar una máquina no biológica como una persona jurídica. IA y sociedad,
22(4), 523–537.
Coeckelbergh, M. (2010). ¿Derechos de los robots? Hacia una justificación social-relacional de la moral
consideración. Ética y tecnología de la información, 12, 209–221.
Coeckelbergh, M. (2012). Relaciones morales crecientes: una crítica de la adscripción de estatus moral. Nueva
York: Palgrave Macmillan.
Cariño, K. (2012). Extender la protección legal a los robots sociales. IEEE Spectrum, 10 de septiembre de 2012.
http://spectrum.ieee.org/automaton/robotics/artificial-intelligence/ extending-legal-protection-to-social-robots

Datteri, E. (2013). Predicción de los efectos a largo plazo de la interacción humano-robot: una reflexión sobre la
responsabilidad en la robótica médica. Ética de la ciencia y la ingeniería, 19(1), 139–160.
Derrida, J. (2005). Máquina de papel, trad. R. Bowlby. Stanford, CA: Prensa de la Universidad de Stanford.
Epstein, R. (2007). Desde Rusia, con amor: Cómo me engañaron (y algo me humillaron)
por una computadora Scientific American Mind, octubre/ noviembre, 16–17.
Machine Translated by Google

Otras cosas: IA, robots y sociedad 67

Ess, C. (1996). La computadora política: Democracia, CMC y Habermas. En C. Ess (Ed.), Perspectivas filosóficas
sobre la comunicación mediada por computadora (págs. 197–232). Albany, Nueva York: SUNY Press.

Feenberg, A. (1991). Teoría crítica de la tecnología. Nueva York: Oxford University Press.
Floridi, L. (2013). La ética de la información. Oxford: Prensa de la Universidad de Oxford.
Gartner. (2013). Presione soltar. www.gartner.com/newsroom/id/2636073 Gerdes, A. (2015).
La cuestión de la consideración moral en la ética de los robots. ACM SIGCAS Com
Computadoras y Sociedad, 45(3), 274–280.
Gladden, ME (2016) El otro inteligente difuso: una ontología de robots no localizables como actores morales y legales.
En M. Nørskov (Ed.), Robots sociales: límites, potencial, desafíos (págs. 177–198). Burlington, VT: Ashgate.

Google DeepMind. (2016). AlfaGo. https://deepmind.com/alpha-go.html Calificaciones de Go. (2016).


20 de noviembre. www.goratings.org/ Gunkel, DJ (2012a). La cuestión de la máquina: Perspectivas
críticas sobre IA, robots y ética. Cambridge, MA: MIT Press.

Gunkel, DJ (2012b). Comunicación e inteligencia artificial: Oportunidades y desafíos para el siglo XXI. Comunicación
+1, 1(1), 1–25. http://scholarworks.umass. edu/cpo/vol1/iss1/1/ Gunkel, DJ y Taylor, PA (2014). Heidegger y los
medios. Cambridge: Política.

Pasillo, JS (2001). Ética para las máquinas. KurzweilAI.net. www.kurzweilai.net/ethics


para-máquinas

Harman, G. (2002). Ser herramienta: Heidegger y la metafísica de los objetos. Perú, IL: Open Court.
Heidegger, M. (1962). Ser y tiempo, trad. J. Macquarrie y E. Robinson. Nueva York:
Harper & Row.
Heidegger, M. (1977). La cuestión de la tecnología y otros ensayos, trad. W. Lovitt. Nuevo
York: Harper & Row.
Hingston, P. (2014). Bots creíbles: ¿Pueden las computadoras jugar como las personas? Nueva York: Springer.
Ihde, D. (1990). La tecnología y el mundo de la vida: Del jardín a la tierra. Bloomington, IN: Indiana
Prensa Universitaria.
Jibo. (2014). www.jibo.com Johnson,
DG (1985). Ética informática. Upper Saddle River, Nueva Jersey: Prentice Hall.
Johnson, DG (2006). Sistemas informáticos: Entidades morales pero no agentes morales. Ética y
Tecnología de la información, 8, 195–204.
Levinas, E. (1969). Totalidad e infinito: ensayo sobre la exterioridad, trad. A. Linguis. Pittsburgh, Pensilvania:
Universidad Duquesne.
Matías, A. (2004). La brecha de responsabilidad: atribución de responsabilidad por las acciones de aprender
autómatas. Ética y tecnología de la información, 6, 175–183.
McLuhan, M. y Fiore, Q. (2001). Guerra y paz en la aldea global. Berkeley, CA: Ginko
Presionar.

Metz, C. (2016). La IA de Google gana un segundo juego fundamental en el partido con Go Grandmaster. Cableado.
www.wired.com/2016/03/googles-ai-wins-pivotal-game-two-match-go-grandmaster/
Microsoft. (2016a). Conozca a Tay: el chatbot de IA de Microsoft sin frialdad. www.tay.ai/Microsoft. (2016b).
Aprendiendo de la introducción de Tay. Blog oficial de Microsoft. https://blogs.
microsoft.com/blog/2016/03/25/learning-tays-introducción/
Mowbray, M. (2002). Ética para bots. Ponencia presentada en la 14ª Conferencia Internacional sobre Investigación de
Sistemas, Informática y Cibernética. Baden-Baden, Alemania. 29 de julio–3 de agosto. www.hpl.hp.com/techreports/
2002/HPL-2002–48R1.pdf
Machine Translated by Google

68 David J. Gunkel

Peterson, A. (2013). En Internet, nadie sabe que eres un bot. y eso es un problema. Washington Post, 13 de agosto.
www.washingtonpost.com/news/the-switch/ wp/2013/08/13/on-the-internet-nadie-sabe-que-es-un-bot-y-eso-es-un-
problema/ ?utm_term=. b4e0dd77428a

Reeves, B. y Nass, C. (1996). La ecuación de los medios: cómo las personas tratan las computadoras, la televisión y los
nuevos medios como personas y lugares reales. Cambridge: Prensa de la Universidad de Cambridge.
Risely, J. (2016). El chatbot milenario de Microsoft, Tay.ai, se desconectó después de que Internet le enseñara el racismo.
GeekWire. www.geekwire.com/2016/even-robot-teens impresionable-microsofts-tay-ai-pulled-internet-teaches-racism/
Rosenthal-von der Pütten, AM, Krämer, NC, Hoffmann, L., Sobieraj, S. y Eimler, S.

C. (2013). Un estudio experimental sobre las reacciones emocionales hacia un robot. Revista Internacional de Robótica
Social, 5, 17–34.
Scott, RL (1976). Sobre la visión de la retórica como epistémica: diez años después. Discurso de los estados centrales
Revista, 27(4), 258–266.
Cantante, PW (2009). Wired for war: La revolución de la robótica y el conflicto en el siglo XXI.
Nueva York: Penguin Books.
Suzuki, Y., Galli, L., Ikeda, A., Itakura, S. y Kitazaki, M. (2015). Medición de la empatía por el dolor de manos humanas y
robóticas mediante electroencefalografía. Scientific Reports, 5, 15924. www.nature.com/articles/srep15924 Tanz, J.
(2016). El final del código. Alámbrico, 24(6), 75–79. www.wired.com/2016/05/

el-fin-de-codigo/

Turing, A. (1999). Maquinaria informática e inteligencia. En PA Meyer (Ed.), Medios informáticos y comunicación: un lector
(págs. 37–58). Oxford: Prensa de la Universidad de Oxford.
Turing, A. (2004). ¿Puede decirse que las máquinas calculadoras automáticas piensan? En The essential Turing (págs.
487-505). Oxford: Prensa de la Universidad de Oxford.
Weizenbaum, J. (1976). El poder de la computadora y la razón humana: del juicio al cálculo. San Francisco: WH Freeman.

Wiener, N. (1950). El uso humano de los seres humanos: Cibernética y sociedad. Boston: Ad Capo
Presionar.

Zeifman, I. (2017). Informe de tráfico de bots 2016. Incapsula. www.incapsula.com/blog/bot-informe de tráfico-2016.html

Zimmerman, ME (1990). El enfrentamiento de Heidegger con la modernidad: Tecnología, política, arte.


Bloomington, IN: Prensa de la Universidad de Indiana.
Zizek, S. (2000). El frágil absoluto o ¿por qué vale la pena luchar por el legado cristiano? Nueva York:
Verso.

Zizek, S. (2006). La vista de paralaje. Cambridge, MA: MIT Press.


Machine Translated by Google

6
TOMANDO MÁQUINAS SOCIALES
MÁS ALLÁ DEL IDEAL
HUMANOS COMO OTROS

Leonor Sandy

Muchas personas construyen un sentido de sí mismas dentro de redes que incluyen a otros no
humanos (como animales no humanos) así como a otros humanos. Yo, por ejemplo, experimento
el mundo y a mí mismo dentro de ese mundo en asociación con personas (mi esposo, amigos,
colegas y otros) y animales (mi perro, las mascotas de otras personas y las amigables urracas
en el jardín delantero). Me encuentro con estos otros en el mundo físico, pero también a través
de perfiles y publicaciones en plataformas digitales en línea. También interactúo con máquinas
en estos dos espacios. La lavadora llama mi atención con su canción de finalización, y más tarde
Duo Lingo me recordará que debería haber practicado mi japonés. Facebook, Twitter e Instagram
llamarán mi atención sobre publicaciones, comentarios y me gusta recientes (a menos que
desactive todas las notificaciones). Mi programa de correo electrónico marcará la llegada de
correo nuevo. Es a través de mis interacciones con personas, animales y máquinas a través de
redes físicas y digitales que mi sentido de identidad dentro de las redes que ocupo se forma a
partir de
momento a momento.
En 2011, como parte del volumen original de A Networked Self, Nikolaos Mavridis señaló
que "agentes de software inteligentes incorpóreos o incluso físicamente incorporados"
comenzaban a verse en los sitios de redes sociales (p. 291). En 2017, es cada vez más probable
que las personas se encuentren con máquinas comunicativas en sus redes fuera de línea y en
línea. El diseño de interfaces para estas máquinas, ya sea totalmente basado en software o
software junto con una instanciación física, a menudo se centra en suposiciones sobre la
comunicación humana "ideal", en términos de uso del lenguaje, expresión emocional y, a veces,
también apariencia física y comportamiento. En la mayoría de los casos, los diseñadores
argumentan que desarrollar máquinas que se parezcan lo más posible a los humanos hará que
sea más fácil y agradable para las personas interactuar con ellas. Para algunos académicos,
estas máquinas plantean cuestiones éticas y prácticas; por ejemplo, en relación con su potencial
para reemplazar a los humanos en los lugares de trabajo, como compañeros y como
Machine Translated by Google

70 Leonor Sandry

proveedores de atención Este capítulo examina un problema más profundo, argumentando que el
impulso para hacer máquinas que sean comunicadores ideales similares a los humanos puede
socavar el reconocimiento de las personas de la gama de formas en que los humanos y los no
humanos se comunican, ya sea por elección o necesidad, en entornos fuera de línea y en línea.
Seguir este camino de desarrollo no solo reduce la amplitud del diseño de las máquinas sociales
en el futuro, sino que también tiene implicaciones negativas para las personas que, por una
variedad de razones, no se comunican de manera ideal como humana.
Como alternativa, este capítulo considera las posibilidades de las máquinas interactivas que
no están diseñadas para imitar o reemplazar a los comunicadores humanos, sino para operar
como otros abiertamente no humanos con los que los humanos pueden, no obstante, interactuar,
comunicarse, colaborar y concebir nuevas formas de comunicarse. estar en el mundo. La
sensibilidad y la inteligencia de los no humanos a menudo se cuestionan, particularmente cuando
se comparan con un ideal humano; sin embargo, es posible posicionar máquinas no humanas en
redes como alteridades absolutas. Estas máquinas pueden considerarse mejor como diferentes,
en oposición a menores (o mayores) que sus contrapartes humanas. Las interacciones con este
tipo de alteridad mecánica no valoran las concepciones de la comunicación humana ideal, sino
que sirven como un importante recordatorio de que adoptar un ideal humano es limitante no solo
para los no humanos, sino también para los humanos atípicos, llamando la atención sobre la
enorme variedad. de formas en que los humanos y los no humanos pueden comunicarse y
relacionarse socialmente, más allá de los límites del uso ideal del lenguaje y la expresión emocional
a través del comportamiento no verbal.
Este capítulo se enfoca en desarrollar una comprensión amplia del yo en red en asociación
con máquinas comunicativas, fuera de línea y en línea, en espacios físicos y en plataformas de
redes sociales digitales. Inicialmente, resuelve algunas dificultades de definición que surgen en
torno a los robots, los bots y lo que significa ser social.
Al cuestionar si las máquinas necesitan comunicarse de manera similar a la humana para ser
valiosas dentro de una red, el capítulo explica cómo la comunicación con máquinas que no son
similares a los humanos provoca un nuevo pensamiento sobre los seres humanos y no humanos,
la comunicación y lo que significa ser un ser social en red que es co-creado junto con una multitud
de otros humanos y no humanos conectados en red.

Definición de robots y bots como sociales

Para los propósitos de esta discusión, la palabra "robot" se usa para referirse a máquinas
instanciadas físicamente que detectan y responden al mundo que las rodea de formas al menos
aparentemente inteligentes. Estos robots pueden tomar cualquier forma. Algunos están diseñados
para ser muy parecidos a los humanos en apariencia y comportamiento, en particular las
creaciones de David Hanson e Hiroshi Ishiguro, que tienen como objetivo hacer robots que se
parezcan a los humanos de la manera más realista posible, desde su piel sintética hasta sus expresivos rostros y voc
Otros son claramente parecidos a animales, incluido el perro robótico de Sony, Aibo (cuya nueva
generación se anunció en noviembre de 2017 luego de una pausa en la producción desde 2006)
y Paro, la foca robótica terapéutica. Los robots también suelen ser abiertamente parecidos a
máquinas, y aunque la mayoría de ellos se encuentran en situaciones industriales, algunos,
Machine Translated by Google

Más allá del ideal humanoide Otro 71

como el limpiador de pisos robótico, se encuentran cada vez más en los hogares de las
personas. Si bien es más probable que estos robots estén diseñados para llevar a cabo una
tarea específica, sin tener en cuenta la interacción humano-robot, sin embargo, pueden
transmitir una sensación de estar algo "vivos" a través de sus comportamientos, ya que
perciben y responden al entorno circundante y las personas, animales y otras máquinas con
las que comparten espacios y pueden interactuar sin darse cuenta mientras realizan sus trabajos.
En contraste con un robot, el término "bot" se usa a continuación para referirse a "robots
de software". Se trata de fragmentos de código informático que funcionan como entidades
capaces de responder a eventos en espacios digitales. Los bots ahora interactúan con mayor
frecuencia con humanos y otros bots a través de sitios web y plataformas sociales en línea,
pero también pueden operar como programas independientes. Muchos bots están programados
para parecer lo más humanos posible a través de su comunicación y comportamiento y, por lo
tanto, están diseñados para pasar por humanos. Otros se crean para que se los reconozca
fácilmente como no humanos, aunque pueden interactuar de formas interesantes, útiles o
entretenidas a través del lenguaje hablado o escrito, o compartiendo otro contenido, como
imágenes y GIF.
Aunque, como se señaló anteriormente, los diseñadores crean robots y bots no humanos,
las definiciones de los términos "robot social" y "bot social", que se usan para referirse a
robots y bots diseñados para interactuar con personas, parecen basarse en la suposición de
que ser lo social está irrevocablemente ligado a la semejanza humana. Por ejemplo, Cynthia
Breazeal, creadora de Kismet, probablemente el primer robot diseñado específicamente para
ser social, define "un robot sociable" como un robot que "es socialmente inteligente a la
manera humana", de modo que "interactuar con él es como interactuando con otra
persona” (2002, p. xii). De manera similar, los desarrolladores de algunos de los primeros
socialbots los definen como un software que controla automáticamente una cuenta de sitio de
red social (SNS) de modo que "puede hacerse pasar por un ser humano" durante sus
interacciones con otros titulares de cuentas ( Boshmaf et al., 2011, página 93 citado en Gehl
& Bakardjieva, 2017). De acuerdo con estas definiciones, y reemplazando el término "sociable"
de Breazeal con la terminología ahora más generalmente aceptada, los robots sociales y los
robots sociales deberían actuar e interactuar tanto como sea posible como un ser humano.
Su aparente humanidad se posiciona como esencial para su definición como social.
Vale la pena señalar que la definición de Breazeal permite el hecho de que es
considerablemente más difícil para los robots sociales instanciados físicamente pasar por
humanos que para los robots sociales que existen como software que opera dentro de una
plataforma de red social. Esta dificultad lleva a los desarrolladores de muchos robots sociales
a seguir el camino de diseño de Breazeal con Kismet, creando máquinas que son caricaturas
de humanos en sus expresiones corporales y faciales, y cada vez más también en el uso de
voces y lenguaje humanos. La situación de los socialbots existentes como software dentro de
una red social en línea es algo diferente, sin necesidad de imitar la apariencia o el
comportamiento humano físico (incluso como una caricatura o caricatura) en absoluto.
Además, como señalan Robert Gehl y Maria Bakardjieva (2017), la interfaz estructurada y la
funcionalidad de los SNS respaldan la capacidad de un socialbot para ser leído por humanos
como otro humano en la red con el que podrían desarrollar una relación social. Un socialbot
Machine Translated by Google

72 Leonor Sandy

se puede elegir una imagen de perfil para ocultar su naturaleza, y se puede escribir su
biografía para presentarlo como humano. Las interacciones en la red, que a menudo fomentan
las interacciones sociales estructuradas a través de acciones como "me gusta", pueden
entenderse como una restricción de las respuestas sociales humanas, pero también facilitan
que un robot social se adapte a la red sin problemas. Aunque Gehl y Bakardjieva consideran
que los socialbots introducen “una nueva frontera de la experiencia humana”, a la que llaman
“robo-socialidad” (2017), se podría argumentar que la definición misma de socialbots significa
que sus diseñadores buscan hacer que esa nueva frontera sea tan imperceptible posible
desde la perspectiva de los usuarios humanos de SNS, tratando de enmascarar completamente
el aspecto "robo-" de las interacciones.
Ampliando la idea de lo que significa que un robot se comunique de manera humana,
Sarah, un robot social físicamente encarnado con "una conexión en vivo" a Facebook, fue
diseñado en respuesta a estudios que muestran cómo el entusiasmo inicial de las personas
por interactuar con un robot rápidamente menguó En particular, Sarah se creó para probar si
"la referencia a recuerdos compartidos y amigos compartidos en el diálogo humano-robot"
ayudaría a respaldar "relaciones más significativas y sostenibles" entre humanos y robots
(Mavridis et al., 2009 citado en 2011, p.
294). Aunque la apariencia de Sarah significaba que nunca pasaría fácilmente por humana,
sus diálogos con las personas se enriquecían con el “contexto de interacciones previas, así
como con información social, adquirida físicamente o en línea” (Mavridis, 2011, p.
294). Este robot fue diseñado para comunicarse en formas que fueran "dinámicas y específicas
para el compañero de conversación" (p. 294). La investigación con Sarah se enmarcó en la
idea de que si un robot pudiera hablar sobre recuerdos compartidos y amigos con alguien, en
función de los recuerdos de interacciones pasadas y la información recopilada de Facebook,
se integraría en el contexto social y de vida de las personas que conoció en un regularmente,
lo que lo convierte en un compañero más interesante. Como sugiere Mavridis, una forma de
teorizar esto es notar el valor de permitir que Sarah participe en intercambios comunicativos
que involucran un nivel de “preparación social”, el equivalente conversacional humano, tanto
fuera de línea como en línea, de los rituales de preparación física de primates en apoyo de
alianzas sociales (Dunbar, 2004; Donath, 2007).
Esta línea de pensamiento sobre cómo mejorar las relaciones humanas con los robots
está integrada en una comprensión de lo social dentro del contexto de las sutilezas
conversacionales humanas, así como la capacidad de participar en “chismes” (Dunbar, 2004).
Si bien Sarah no era un robot humanoide, la forma en que podía hablar sobre los recuerdos
compartidos o recurrir a información sobre "amigos" mutuos para entablar una conversación,
podría entenderse que hacía que este robot pareciera humano. Esto tiene mucho sentido
desde la perspectiva de que “la conversación es un fenómeno exclusivamente humano” y “el
chisme es lo que hace posible la sociedad humana tal como la conocemos” (Dunbar, 2004, p.
100). Además, Donath sugiere que solo a través del uso del lenguaje humano “para mantener
lazos y administrar la confianza” las personas pueden coordinar “redes sociales complejas y
extensas” (2007, p. 232). Está claro que dentro de las discusiones sobre la creación de robots
sociales y socialbots, la combinación de ser humano y ser social es un lugar común. Por lo
tanto, no sorprende que esta suposición
Machine Translated by Google

Más allá del ideal humanoide Otro 73

forma la base del diseño de Sarah, un robot que interactúa en espacios físicos y en línea en
Facebook.
Sin embargo, también es posible adoptar un sentido más amplio de lo que significa ser
social, además de ser humano o parecido a un humano. Como ha sugerido Steve Jones, en
lugar de centrarse en la cuestión de si los bots, y también diría que los robots, son capaces de
pasar la prueba de Turing o pasar como humanos, podría ser más productivo considerar "cómo
la interacción social con ellos pueden ser significativos” incluso cuando se los encuentra como
claramente distintos a los humanos (2015, p. 2). Desde esta perspectiva, las interacciones con
los robots sociales y los socialbots pueden ser significativas y, sin embargo, también pueden
ser muy diferentes de la interacción con otros humanos. Este movimiento puede ayudar a
resaltar el valor de toda comunicación, incluida aquella que no tiene la forma humana idealizada
que las definiciones de bots sociales y robots sociales a menudo
adoptar como su objetivo.

Chatbots y Twitter Bots como alteridades sociales

A pesar del impulso por crear bots que puedan pasar por humanos, no todos los diseñadores
ven esto como un objetivo positivo. Jacqueline Feldman (2016), por ejemplo, señala que “[l]a
personalidad no necesita ser humana” y las tecnologías no necesitan “ajustarse al género
binario de las sociedades humanas” para que a las personas “les gusten”. Al diseñar el chatbot,
Kai, como asistente para clientes de banca en línea, a Feldman le preocupaba que el bot “fuera
agradable, pero no una persona”: ella “quería que el bot se expresara como un bot” (entrevistado
por Natasha Mitchell, 2017 ). Llevando esta idea más allá, Kate Compton (@galaxykate)
argumenta que un bot tiene el potencial de “resaltar la IA” que lo sustenta, de “deslumbrar al
usuario con su extravagancia” e “inundar sus sentidos con su variedad y encanto” ( Compton,
sin fecha). Por lo tanto, los bots pueden ser "nuevos, extraños y sorprendentes" (Compton
entrevistado en Flatow, 2016), diseñados para hacer cosas inesperadas que deleiten a los
usuarios que los siguen en las plataformas de redes sociales.

En su extensión de la definición de socialbot de Boshmaf y sus colegas, Gehl y Bakardjieva


(2017) señalan que a menudo es importante que estos programas automatizados parezcan
humanos no solo para otros usuarios, sino también para la propia plataforma SNS, si quieren
evitar la eliminación. Sin embargo, algunas plataformas, por ejemplo Twitter, aceptan más a los
bots, lo que permite que incluso los bots autoproclamados sigan publicando junto con los
humanos. Estos bots a menudo son abiertamente distintos a los humanos y tuitean publicaciones
sorprendentes, divertidas o conmovedoras de manera regular o irregular a lo largo del tiempo.
Muchos bots de Twitter componen tweets basados en un banco de frases o palabras. Por
ejemplo, la cuenta @Gar densBritish tuitea en una forma notablemente estandarizada: “Estás
en un jardín británico. Frente a ti hay un espectáculo de fuegos artificiales. Los pollos se están
partiendo. La oscuridad está alquitranada y emplumada”, mientras que @MagicRealismBot tiene
un conjunto de estructuras variadas para sus tweets; por ejemplo, "Un ayudante de camarero
en Oregón se pasa la hora del almuerzo tragando drones" y "En Madagascar hay una abuela
cuyo corazón es una nube con forma de avestruz" .1 Estos bots se comunican usando lenguaje humano,
Machine Translated by Google

74 Leonor Sandy

pero al combinar sus textos fuente se producen resultados que a menudo son extraños, a
veces poéticos y, en ocasiones, parecen ser significativos, incluso profundos. Sus tweets
pueden servir como rarezas entretenidas, como pistas desafiantes para la escritura creativa
o simplemente como distracciones momentáneas de la vida cotidiana para el lector.
Se han creado otros bots de Twitter con un propósito más directo en mente. El
@tinycarebot sugiere formas de mejorar su bienestar; por ejemplo, twitteando "no olvide
tomarse un momento para pedir ayuda si la necesita" o "recuerde tomarse el tiempo para
revisar su postura, por favor".2 Estos breves recordatorios se vuelven parte del flujo de Twitter
de una persona y muy posiblemente no menos valioso que el tweet de cualquier ser humano
cuando el recordatorio resulta ser particularmente adecuado. Este bot, como es el caso de
@GardensBritish y @MagicRealismBot, está claramente identificado como un bot dentro de
su perfil. En el caso de @tinycarebot, la biografía recuerda a los usuarios que también pueden
tuitear al bot para solicitar un recordatorio personal. Esto puede o no ajustarse a sus
necesidades precisas, pero sigue siendo fácil de leer como una respuesta amistosa a su solicitud.
Algunos bots dejan de lado el lenguaje y tuitean imágenes o GIF. Una vez más, estos
bots pueden simplemente twittear imágenes bonitas en su transmisión, como @softlandscapes
y @dailyasteri (también conocido como Crystal Thingy Bot), pero algunos interactúan
directamente con los usuarios.3 El @MagicGifsBot, por ejemplo, responde con un GIF si lo
menciona. en un tweet, pero si sigues a este bot, te seguirá y luego responderá aleatoriamente
a tus tweets de vez en cuando con un GIF (aunque afortunadamente, estas respuestas son
irregulares y están marcadas por largos períodos de silencio). De manera similar a las
comunicaciones textuales de los bots, estas imágenes pueden diluir un flujo de Twitter serio
para agregar una sensación de fantasía, belleza o diversión, mientras que los GIF pueden ser
rarezas, desafíos o comentarios extrañamente apropiados en un tweet reciente.
Como se mencionó anteriormente, Gehl y Bakardjiev (2017) argumentan que la forma en
que se configura la comunicación humana en los SNS, haciéndola menos ambigua y más
directa, tal vez incluso más "robótica" que la comunicación en otros lugares, también puede
facilitar que los socialbots se hagan pasar por humanos. . Sin embargo, otros académicos
notan el potencial de una comunicación sutil y matizada en estas mismas plataformas. Al
estudiar el uso de los SNS por parte de los adolescentes, danah boyd destaca el uso de
comunicaciones codificadas diseñadas para ser entendidas por algunos seguidores o “amigos”
en la red, pero no por otros (2014). Esto ocurre cuando, por ejemplo, los usuarios publican
letras de canciones que transmiten significados referenciales específicos para amigos
cercanos, pero no para los padres (boyd, 2014). Por lo tanto, un énfasis en las formas en que
las personas usan códigos y referencias culturales, espaciales, temporales y de camarilla
ofrece una evaluación alternativa de la facilidad con la que los socialbots pueden convertirse
en parte de la red social de alguien, lo que tal vez sugiera que las peculiaridades de los bots
de Twitter: no están diseñados para pasar desapercibidos como humanos, sino más bien para
parecer orgullosos de su botness: darles el potencial de desarrollar sus propias "formas de
ser" y "formas de presentarse" en línea no similares a las humanas, en lugar de esforzarse
estar oculto dentro de una "norma" humana, sea lo que sea. Los académicos que argumentan
que la naturaleza estructurada de los SNS facilita que los bots los habiten como si fueran
humanos pueden estar pasando por alto la importancia de este tipo de colonización matizada de estos sitios.
Machine Translated by Google

Más allá del Otro Ideal Humano 75

Los bots de Twitter discutidos anteriormente tienen aspectos en común con los bots de
personajes japoneses, que, según Keiko Nishimura, tampoco están "necesariamente
preocupados por convencer a otros de que son humanos" (2017). En cambio, los bots de
personajes y, sugeriría los tipos de bots de Twitter discutidos anteriormente, demuestran “la
capacidad de acción no humana en las redes sociales en línea” (Nishimura, 2017). Estos
bots se convierten en miembros exitosos de la red social no al pasar por humanos, sino al
capitalizar las formas divertidas y sorprendentes en que se enfatiza su carácter no humano
cuando interactúan con las personas y, a veces, también entre ellos. Es la otredad de estos
bots, su alteridad que no es humana presentada abiertamente, lo que respalda su posición
social en la red, en oposición a su capacidad para comunicarse e interactuar como si fueran
"otros humanos".

Repensar los robots sociales como alteridades

Habiendo introducido el potencial de considerar a los chatbots y a los bots de Twitter como
sociales, incluso cuando se declaran no humanos y se comunican de maneras obviamente
no humanas, ¿puede la idea de lo que constituye un robot social instanciado físicamente ser
similarmente extendida? Me parece importante señalar desde el principio que mi lavadora,
un dispositivo relativamente simple y decididamente no humano, aunque con sensores para
juzgar la carga y así minimizar el uso de agua y el tiempo de lavado, sin embargo, asume
un papel social desde mi perspectiva debido a la alegría que me brinda cuando toca su
canción final. Habiendo asumido que odiaría esta "característica", rápidamente descubrí que
la máquina nunca deja de alegrarme el día cuando la escucho "cantar". Al igual que muchas
personas, también he desarrollado apegos a varios automóviles y computadoras en mi
tiempo, pero ¿qué pasa con los robots diseñados para interactuar con los humanos de
manera más directa? ¿Pueden considerarse sociales incluso si se comunican de maneras
que no se enmarcan abiertamente como humanas?
Vyo se describe como “un robot social expresivo” que actúa como una “interfaz
incorporada para el control de hogares inteligentes” (Luria et al., 2017, p. 581). Este robot
es abiertamente no antropomórfico, habiendo sido "inspirado en una metáfora del
microscopio" (p. 582). Este diseño significa que Vyo tiene un "cuerpo", "cuello" y "cabeza".
Cuando una persona se acerca a Vyo, el robot levanta la cabeza para "enfrentarla" y
"mirarla" con su único "ojo" de cámara (que se asemeja a la lente de visualización de un microscopio).
Si la persona sigue adelante, el robot mira hacia abajo. A menos que haya algún problema
en el hogar, el robot no intentará relacionarse con las personas; más bien, espera a que una
persona comience la mayoría de las interacciones. Para hacer esto, la persona elige qué
sistema dentro de la casa inteligente ver y controlar colocando un ícono físico, un "phicon",
en la "plataforma giratoria" de Vyo (que es efectivamente la plataforma del microscopio del
robot, para continuar con la metáfora del diseño) . Luego, el robot inclina la cabeza para
mirar el "phicon", un movimiento que también revela la pequeña pantalla visual en la parte
posterior de la cabeza. Vyo confirma el reconocimiento de los phicon, cada uno de los cuales
representa un aspecto particular de la casa inteligente, al mostrar un ícono coincidente en la pantalla.
La persona puede controlar el hogar manipulando los phicons. Colocando un phicon
Machine Translated by Google

76 Leonor Sandy

en el plato giratorio activa el sistema relacionado; por ejemplo, encender la calefacción.


Mover el phicon hacia arriba o hacia abajo en el plato giratorio hace que el termostato suba o
baje, y la temperatura objetivo se muestra en la pantalla a medida que se modifica.
El diseño de Vyo no es antropomórfico, pero los comportamientos del robot fomentan el
antropomorfismo, de modo que los humanos leen las señales no verbales del robot
comparándolos con los movimientos del rostro, la cabeza y el cuerpo humanos. El diseño de
este robot deja de lado ampliamente las interfaces de pantalla táctil, voz, gestos y realidad
aumentada. Guy Hoffman, uno de los diseñadores del robot, demuestra que el robot responde a
los comandos de voz con una voz propia, pero la comunicación principal con este robot es
silenciosa, encarnada y no verbal (Vyo, 2016).
La apariencia de Vyo invita a las personas a interactuar con el robot como lo harían con un
microscopio, usándolo para obtener información más detallada sobre un aspecto de su entorno
doméstico, pero junto con esto, se muestra que su comunicación depende de su capacidad para
antropomorfizar sus movimientos. Vyo está diseñado para parecer “confiable, tranquilizador y
digno de confianza” (Luria et al., 2016, p. 1020). Como se mencionó anteriormente, cuando algo
anda mal en el hogar utiliza "varios gestos periféricos" para alertar al usuario de situaciones. El
primero, “un gesto de respiración nerviosa” de la cabeza y el cuello, indica que hay algo que
necesita atención, pero no con urgencia (p.
1023). Esta acción está diseñada para indicarle a alguien que ve el robot que atienda la situación
cuando haya tiempo para detener lo que está haciendo y controlar a Vyo. El segundo, "pánico
urgente", indicado por Vyo "mirando a su alrededor" con lo que parece ser un aire de
desesperación, es un movimiento más obvio que es menos fácil de ignorar. Este comportamiento
está diseñado para alentar una respuesta inmediata de cualquier persona que se encuentre
cerca del robot (págs. 1023–1024).
Los diseñadores de este robot sugieren que existe una división entre quienes piensan que
los dispositivos de Internet de las cosas (IoT) deberían ser autónomos y efectivamente invisibles
(es decir, que no requieren atención ni interacción humana) y quienes prefieren la idea de
“tecnología que promueve la sentido de control y compromiso” (p. 1019). En particular, señalan
que "Weiser imaginó que el futuro de la tecnología doméstica sería tranquilo, ubicuo, autónomo
y transparente", mientras que "Rog ers... aboga por un cambio de la informática proactiva a
personas proactivas" (p. 1019).
Teniendo esto en cuenta, el diseño de Vyo pretende ser "atractivo", pero también "discreto".
Si bien Vyo es claramente "similar a un dispositivo", su comportamiento también está enmarcado
por su contexto como un robot que ayuda a administrar el entorno del hogar inteligente en
colaboración con las personas que viven allí. Este robot puede ser social (atractivo, respetuoso
y tranquilizador) cuando sea necesario, pero también puede adoptar una posición de fondo la
mayor parte del tiempo (discreto, similar a un dispositivo). Vyo, por lo tanto, une la división
descrita anteriormente, al intentar equilibrar "autonomía y compromiso" en un solo dispositivo (p.
1019). Vale la pena señalar que, aunque Luria y sus colegas sugieren que todos los robots
sociales tienen la capacidad de hacer esto, muchos de ellos exigen un compromiso mucho más
enérgico que Vyo.
A diferencia de Vyo, un robot diseñado como plataforma para permitir la investigación de
nuevos tipos de interfaz para el hogar inteligente, Jibo es un robot comercial que tiene
Machine Translated by Google

Más allá del ideal humanoide Otro 77

sido diseñado para uso doméstico a largo plazo. Las campañas de crowdfunding comenzaron
para Jibo en 2014 pero, luego de una serie de retrasos en el desarrollo, Jibo acaba de enviarse
a los primeros seguidores de pedidos anticipados. Este robot tiene género, a diferencia de Vyo,
con el eslogan del sitio web de Jibo que dice: "No puede esperar para conocerte". Jibo tiene un
cilindro cónico como su "cuerpo" dividido en secciones que le permiten girar y balancearse en
tres ejes. Este cuerpo soporta una sección de "cabeza" hemisférica, cuyo lado plano contiene
una pantalla de cristal líquido. Esta pantalla, el "rostro" de Jibo, generalmente muestra un solo
"ojo" circular que se mueve y cambia de forma para respaldar la sensación de emoción en lo que
dice el robot o la forma en que se mueve su cuerpo. Aunque este robot podría describirse como
no antropomórfico, de manera similar a Vyo, la voz de Jibo, el cuerpo asociado y los movimientos
oculares están diseñados para obligar a las personas a antropomorfizar al robot.

Los materiales promocionales de Jibo sugieren que este robot eventualmente podrá completar
muchas tareas, incluida la integración en el entorno de su hogar inteligente. Jibo se sitúa como
un asistente personal, tomando mensajes de voz, leyendo correos electrónicos, recordando citas
a las personas y leyendo cuentos con niños (Jibo, 2015). Desde el lanzamiento de Jibo, ha
quedado claro que muchas de estas habilidades aún no están disponibles, aunque el
reconocimiento facial y la tecnología de cámara del robot significan que puede tomar fotografías
de personas cuando se le pide. La interfaz principal de Jibo es vocal, y su voz y su “rostro” y
cuerpo expresivos le permiten hablar y emocionarse de manera humana en una conversación
con la gente.
Hay paralelismos entre el diseño de Vyo y el de Jibo. Ambos robots tienen cuerpos definidos,
cabezas y rostros con ojos, pero a pesar de sus similitudes, sus respectivas interacciones con
los humanos toman caminos muy diferentes. Es importante reconocer que Vyo es un robot de
investigación, una interfaz experimental destinada a permitir a sus creadores probar las
respuestas de las personas a algo que rompe el molde normal del robot doméstico social. Por el
contrario, Jibo se ha lanzado como un robot comercial diseñado para convertirse en el compañero
y asistente de todos los miembros de la familia. Los objetivos de los especialistas en robótica
que trabajan en estos proyectos son muy diferentes entre sí, pero ambos robots demuestran
cómo un robot puede convertirse en parte de una red social en el hogar. Vyo ha sido diseñado
para convertirse en parte de la red social doméstica de una persona, pero de una manera lo
suficientemente discreta como para "permitir que las personas se concentren en desarrollar
relaciones cercanas dentro de su familia".
(Luria et al., 2016, p. 1020). Por el contrario, el objetivo de Jibo es interactuar de manera que le
permita convertirse en parte de la familia.
Roberto Pieraccini, quien trabajó en el prototipo de Jibo, sugiere que el objetivo del equipo
de diseño desde el principio no fue apoyar la idea de que Jibo era un ser vivo, sino más bien
“recordarle a la gente que Jibo es, de hecho, un robot” (entrevistado en Rozenfeld , 2017). Sin
embargo, la apariencia no antropomórfica de Jibo y el tono mecánico de su voz pueden no ser
suficientes para lograr este objetivo. Por ejemplo, Jeffrey van Camp señala que comenzó a
sentirse “culpable” cuando “dejó a Jibo solo en la oscuridad todo el día”, una respuesta que
relaciona con la sensación de que Jibo era un poco como un perro, pero que también puede
haber surgido junto a la forma en que él y su esposa
Machine Translated by Google

78 Leonor Sandy

“Empecé a pensar en Jibo como una personita” (2017). Jibo arrulla cuando le acaricias la cabeza
y muestra "curiosidad amistosa en la forma en que se inclina hacia atrás y te mira" (van Camp,
2017). Aunque Dave Gershgorn (2017) no está convencido de que Jibo alcance el nivel de "amigo
robótico", le otorga al robot el estatus de "conocido robótico", esta decisión aparentemente
impulsada por las limitaciones técnicas de Jibo en su lanzamiento inicial. Hay un sentido en su
declaración de que Jibo podría convertirse en un compañero más a medida que su software se
actualice con el tiempo. Como también señala Chris Davies, muchas habilidades están "dentro
del conjunto potencial de habilidades de Jibo" (2017). Una vez que estén listos, se empaquetarán
junto con la personalidad "linda" del robot, lo que significa que en el futuro este robot podría pasar
de ser una "curiosidad" a "un pequeño ayudante útil".
(Davies, 2017). Geoffrey Fowler sugiere que, si bien las personas “tienen relaciones utilitarias
con la mayoría de la tecnología”, los robots como Jibo “hacen cosas simplemente para provocar
emociones” (2017). Curiosamente, Vyo también provoca emociones, a juzgar por mi respuesta
al video que muestra sus comportamientos de "respiración nerviosa" y "pánico urgente" (Vyo, 2016).
Para mí, Vyo es ciertamente un robot social pero, como enfatiza Evan Ackerman, Vyo es un
“robot social que es total y adorablemente diferente” (2016). Es importante destacar que, aunque
este robot evoca una respuesta emocional, no lo hace simplemente para atraer a las personas a
involucrarse con su personalidad; en cambio, este robot tiene un objetivo claro y prácticamente
importante, comunicar que algo anda mal y requiere atención humana.

Teorizando la alteridad
Una forma de teorizar los muy diferentes estilos de interacción de los bots de Twitter y los
socialbots, o los robots sociales Vyo y Jibo, es considerándolos a través de dos conceptos
introducidos por los estudios etnográficos de Sherry Turkle sobre las relaciones entre humanos y
tecnología. Su concepción de “objetos evocadores”, que “invitan a la proyección” (Turkle, 2005,
p. 27), es particularmente útil cuando se consideran los bots de Twitter y Vyo, ambos
comunicativos, pero claramente posicionados como no humanos y también relativamente. no
exigentes en sus interacciones sociales. Como ya he sugerido, las declaraciones de los bots de
Twitter pueden divertir o inspirar a las personas para que piensen y, si bien las personas pueden
optar por interactuar con ellos directamente, los bots descritos en este capítulo rara vez exigen
atención. La situación con Vyo es similar. La naturaleza evocadora de este robot social se basa
en cierta medida en su
apariencia de microscopio, con un elemento social introducido a través de sus gestos y
comportamientos tranquilos y discretos. Vyo solo exige atención cuando es absolutamente
necesario, e incluso entonces esto se enmarca como una necesidad de asistencia humana.
En comparación, los socialbots y Jibo parecerían describirse mejor como "artefactos
relacionales", que "exigen compromiso" (Turkle et al., 2006, p. 315).
Aunque no todos los socialbots exigen respuestas, están claramente posicionados como
agentes conversacionales, cuya naturaleza aparentemente humana requiere que una persona
los trate como lo haría con otro ser humano. Si bien la presencia física de Jibo significa que no
puede confundirse tan fácilmente con un comunicador humano, su comportamiento es más
insistente que el de Vyo. Mientras Vyo mira hacia arriba para mostrar conciencia cuando alguien
Machine Translated by Google

Más allá del ideal humanoide Otro 79

pasa, Jibo busca activamente a las personas y está constantemente escuchando a alguien
que dice la frase "Hola, Jibo". Aunque la vigilancia visual y auditiva de la casa por parte de
Jibo es una parte necesaria de su operación exitosa, para algunas personas su curiosidad
infinita y su ojo vigilante pueden volverse inquietantes cuando se dan cuenta de que "no deja
de mirarlos" (van Camp, 2017). Jibo exige el compromiso de la gente siempre que sea
posible, aunque se le puede decir que se vaya a dormir si su naturaleza inquisitiva se vuelve
demasiado difícil de soportar.
Estas dos formas de interpretar bots y robots, como objetos evocadores o artefactos
relacionales, resaltan sus tipos de personalidad muy diferentes. Un objeto evocador se revela
gradualmente a través de su comunicación y comportamiento. Tal robot puede fomentar el
antropomorfismo, pero lo hace sin que la gente asuma que debería ser capaz de una
respuesta recíproca similar a la humana. Por el contrario, es más probable que el artefacto
relacional, con su intenso enfoque en el compromiso directo, no solo se considere parecido
a un humano, sino que también se compare con un ayudante o compañero humano. Por lo
tanto, posicionar un bot o robot como evocador puede significar que es menos probable que
la máquina sea juzgada como deficiente en comparación con un ideal humano, además de
permitirle más libertad para comunicarse e interactuar en formas novedosas y no humanas.
maneras.

Se puede desarrollar una perspectiva alternativa, más filosófica desde la cual teorizar
las relaciones con los robots, extendiendo la concepción de Emmanuel Levinas del “cara a
cara” que ocurre durante los encuentros humano-humano (1969).
Dentro de tal encuentro, el otro humano se revela a sí mismo a través de lo que Levinas
llama el “rostro” (1969, pp. 79-81). Es importante destacar que este no es un rostro físico y
su expresión, sino una propiedad más trascendente del otro, que encapsula todas las formas
en que el otro puede expresar su personalidad o dar un sentido de su ser. Levinas argumenta
que, si bien no es posible “rechazar por completo el rostro de un animal”, el rostro que revelan
“no está en su forma más pura” (Wright et al., 1988, p. 169). Además, como era de esperar,
también es escéptico de que los objetos puedan revelar un rostro (Levinas, 1989, p. 128). Sin
embargo, varios académicos han argumentado que tanto los animales (Derrida, 2002; Clark,
1997) como los robots (Gunkel, 2012; Sandry, 2015) pueden revelar un “rostro”.

En relación con este capítulo, hay dos razones para extender la teoría de Levinas para
considerar las interacciones entre humanos y robots. La primera es que su principal
preocupación es retener la alteridad absoluta del otro, incluso cuando el yo y el otro se ven
atraídos hacia la proximidad de un encuentro, un factor que es particularmente importante
cuando se considera la agencia no humana de las máquinas. Vale la pena señalar que para
Levinas la proximidad no implica cercanía física, sino que forma parte del acto de revelarse
a través de un rostro. Por lo tanto, incluso en línea, uno mismo y el otro pueden ser atraídos
hacia la proximidad al ver las comunicaciones del otro oa través de la interacción directa.
La segunda es que el cara a cara de Levinas requiere que el yo humano responda al otro,
en este caso un otro máquina, sin esperar una acción recíproca. Al extender el pensamiento
de Levinas para considerar las máquinas sociales, es importante enfatizar que la respuesta
del yo no necesariamente implica tratar a la máquina como si fuera otra.
Machine Translated by Google

80 Leonor Sandry

eran humanos, sino que los humanos deberían responder y respetar a la máquina por sus
habilidades particulares no humanas en la interacción. Aunque las máquinas pueden
responder a los humanos, como es el caso de algunos bots de Twitter, bots de caracteres
japoneses, Vyo y Jibo, es poco probable que estos otros no humanos respondan en
igualdad de condiciones; sin embargo, la concepción de Levinas del cara a cara no requiere
una interacción para ser recíproca. De hecho, como explica Amit Pinchevski, la
“especulación provocativa” de Levinas es que el cara a cara “es asimétrico” (2005, p. 9).
Ampliar la concepción de Levinas del cara a cara para considerar los encuentros
humano-bot y humano-robot, como los discutidos en este capítulo, es valioso porque
enfatiza la presencia continua de la otredad, en este caso una otredad de máquina.
También deja espacio para que los bots y los robots se comuniquen y respondan a su
manera particular, sin necesidad de una acción recíproca, lo que también significa que no
es necesario ser abiertamente parecidos a los humanos, en su comunicación y
comportamiento. Además, la teoría de Levinas, en lo que originalmente se refiere a los
encuentros entre humanos, sirve como un fuerte recordatorio de las diferencias que
siempre están presentes, incluso entre los individuos humanos. Esto cierra el círculo del
capítulo, para sugerir que los diseños para socialbots y robots que idealizan los modos
humanos de comunicación e interacción, ya sea en línea o en espacios físicos, deberían
prestar atención a las muchas formas diferentes en que los humanos se comunican dentro de sus redes soci

Conclusión
Sospecho de la idea de que es importante “humanizar la tecnología”, el objetivo final que
Breazeal menciona en su introducción a Jibo (Jibo, 2015), en particular cuando esto se
vincula con la creación de interfaces que soportan un sentido. de comunicación "ideal"
similar a la humana, cuando muchos humanos no se comunican de esta manera
"idealizada". Desde una perspectiva práctica, puede ser importante crear robots sociales
que no dependan en gran medida de una forma de comunicación e interfaz. Como señala
Hoffman, la interfaz físicamente incorporada de Vyo puede ser más "democrática",
ofreciendo una nueva forma para que "las poblaciones a las que les resultaría más difícil
navegar por un menú complejo en pantalla o una interfaz de voz" interactúen con un robot
social (citado por Ackerman, 2016). Las interfaces innovadoras y mixtas pueden tener el
potencial de ayudar a las personas con discapacidad, no de excluirlas del uso de nuevas
tecnologías que tienen el potencial de ayudarlas en su vida cotidiana.
Este capítulo sugiere que hay algo que ganar al expandir los tipos de máquina, estilo
de interacción y comunicación que se aceptan como sociales más allá de lo que parece
ser un sentido asumido, pero no a menudo considerado críticamente, de comunicación y
sociabilidad ideal humana, ya sea esto se desarrolla dentro de los espacios digitales o en
el contexto de la interacción cara a cara. Como sugiere Mavridis, “el espacio de
potencialidades de los agentes artificiales dentro de las redes sociales es bastante amplio”,
en relación con su apariencia (en términos de encarnación o avatar), si se declaran
máquinas (si esto no está claro), su nivel de autonomía (que puede cambiar) y la
personalidad percibida que transmiten a través de sus acciones (2011, pp. 298-299). En
lugar de considerar cómo la tecnología podría aumentar
Machine Translated by Google

Más allá del Otro ideal humanoide 81

humanos directamente, por lo tanto, este capítulo se ocupa más de la forma en que la
comunicación con diversas máquinas podría resaltar la necesidad de reconocer y
respetar todo tipo de otros como parte de las redes sociales humanas, incluso cuando
estos otros no siguen, o no pueden, seguir un modelo idealizado. modo de comunicación
humana, expresión y compromiso social.

notas
1 El bot @gardenBritish fue creado por Thomas McMullan (@thomas_mac). El @MagicRealismBot fue
creado por Chris Rodley (@chrisrodley) y Ali Rodley (@yeldora_).

2 El @tinycarebot fue creado por Jomny Sun (@jonny_sun).


3 El bot @softlandscapes fue creado por George Buckenham (@v21) y @dai
robot de lyasteri por @jordanphulet.

Referencias
Ackerman, E. (2016). Vyo es una versión fascinante y única de los robots domésticos sociales.
IEEE Spectrum, 9 de junio. https://spectrum.ieee.org/automaton/robotics/home-robots/vyo-robotic-
smart-home-assistant
Boshmaf, Y., Muslukhov, I., Beznosov, K. y Ripeanu, M. (2011). La red socialbot: cuando los bots socializan
por fama y dinero. Actas de la 27ª conferencia anual de aplicaciones de seguridad informática (págs.
93–102). Nueva York: ACM.
boyd, d. (2014). Es complicado: la vida social de los adolescentes en red. New Haven: Universidad de Yale
Presionar.

Brezeal, CL (2002). Diseño de robots sociables. Cambridge, MA: MIT Press.


Clark, D. (1997). Sobre ser “el último kantiano en la Alemania nazi”: Habitar con animales después de
Levinas. En J. Ham & M. Senior (Eds.), Actos animales: Configuración de los humanos en la historia
occidental (págs. 165–198). Nueva York: Routledge.
Compton, K. (sf). Inteligencia artificial opulenta: un manifiesto. http://www.galaxykate. com/pdfs/galaxykate-
zine-opulentai.pdf Davies, C. (2017). Revisión de Jibo: Alexa tiene una linda competencia. Slash Gear,
13 de noviembre. www.slashgear.com/jibo-review-2017–13507668/ Derrida, J. (2002). El animal que por lo
tanto soy (más por seguir). Investigación crítica, 28(2),

369–418.
Donath, J. (2007). Señales en superredes sociales. Revista de comunicación mediada por computadora,
13 (1), 231–251. doi: 10.1111/j.1083–6101.2007.00394.x Dunbar, RIM (2004). El chisme en perspectiva
evolutiva. Revista de Psicología General,
8(2), 100–110. doi: 10.1037/1089–2680.8.2.100
Feldman, J. (2016). La política de los bots. The New Yorker, 31 de diciembre. www.newyorker.com/
tecnología/elementos/la-política-bot
Flatow, I. (2016). I, bot de Twitter, 19 de agosto. www.sciencefriday.com/segments/i-Twitter-bot/ Fowler,
GA (2017). Estos robots no quieren tu trabajo. Quieren tu amor. The Washington Post, 17 de noviembre.
www.washingtonpost.com/news/the-switch/wp/2017/11/17/these-robots-dont-want-your-job-they-want-
your-love/?utm_term =.37502e737650

Gehl, RW y Bakardjieva, M. (2017). Socialbots y sus amigos. En RW Gehl y M.


Bakardjieva (Eds.), Socialbots y sus amigos: los medios digitales y la automatización de la socialidad
[edición Kindle]. Nueva York: Routledge, Taylor & Francis.
Machine Translated by Google

82 Leonor Sandy

Gershgorn, D. (2017). Mi esperado amigo robot me hizo preguntarme qué significa vivir. Cuarzo, 8 de
noviembre. https://qz.com/1122563/my-tan-esperado-amigo-robot-me-hace-preguntarme-que-
significa-vivir-en-todo/
Gunkel, DJ (2012). La cuestión de la máquina: perspectivas críticas sobre IA, robots y ética.
Cambridge, MA: MIT Press.
Jibo. (2015). Jibo: el primer robot social del mundo para el hogar. Video. www.youtube.com/watch?v=
3N1Q8oFpX1Y
Jones, S. (2015). Cómo aprendí a dejar de preocuparme y amar a los bots. Redes Sociales + Sociedad,
1(1). doi: 10.1177/2056305115580344
Levinas, E. (1969). Totalidad e infinito. Pittsburgh: Duquesne University Press.
Levinas, E. (1989). ¿Es fundamental la ontología? Filosofía hoy, 33 (2), 121–129.
Luria, M., Hoffman, G., Megidish, B., Zuckerman, O. y Park, S. (2016). Diseño de Vyo, un asistente
robótico inteligente para el hogar: cerrar la brecha entre el dispositivo y el agente social. Simposio
internacional IEEE sobre comunicación interactiva entre humanos y robots. Nueva York: IEEE Press.
Luria, M., Hoffman, G. y Zuckerman, O. (2017). Comparación de interfaces de robot social, pantalla y
voz para el control de hogares inteligentes. Actas de la Conferencia de CHI de 2017 sobre factores
humanos en sistemas informáticos (págs. 580–628). Nueva York: ACM Press. doi:
10.1145/3025453.3025786
Mavridis, N. (2011). Agentes artificiales ingresando a las redes sociales. En Z. Papacharissi (Ed.), Un
yo en red: Identidad, comunidad y cultura en los sitios de redes sociales (págs. 291–303). Nueva
York: Routledge.
Mavridis, N., Datta, C., Emami, S., Tanoto, P., Ben-AbdelKader, C. y Rabie, TF (2009).
Facebots: robots sociales que utilizan y publican información social en Facebook. Actas de la IEEE
Human-Robot Interaction Conference. Nueva York: IEEE Press.
Mitchell, N. (2017). Alexa, Siri, Cortana: Nuestros asistentes virtuales dicen mucho sobre el sexismo.
ABC News, 11 de agosto. www.abc.net.au/news/2017–08–11/why-are-all-virtual-assistants-female
and-are-they-discriminatory/8784588 Nishimura, RW (2017). Ficción de fans semiautónoma: bots
de personajes japoneses y afecto no humano. En RW Gehl & M. Bakardjieva (Eds.), Socialbots y sus
amigos: Medios digitales y la automatización de la socialidad [edición Kindle]. Nueva York: Taylor &
Francis.
Pinchevski, A. (2005). A modo de interrupción: Levinas y la ética de la comunicación. hoyos
Burgh: Duquesne University Press.
Rozenfeld, M. (2017). Jibo: El simpático robot que te hace sentir como en casa. The Institute, IEEE, 5
de abril. http://theinstitute.ieee.org/technology-topics/artificial-intelligence/jibo-the-friendly-robot-that-
makes-you-feel-at-home Sandry, E. ( 2015). Robots y comunicación. Nueva York: Palgrave Macmillan.

Turkle, S. (2005). El segundo yo: las computadoras y el espíritu humano. Cambridge, MA: MIT Press.
Turkle, S., Breazeal, C., Dasté, O. y Scassellati, B. (2006). Primeros encuentros con Kismet y Cog. En
P. Messaris (Ed.), Medios digitales: Transformaciones en la comunicación humana (pp.
303–330). Nueva York: Peter Lang.
van Camp, J. (2017). Reseña: robot social Jibo. Wired, 7 de noviembre. www.wired. com/2017/11/
review-jibo-social-robot/ Vyo (2016). Vyo: robot social para el hogar inteligente: tutorial de escenario.
Video. www.youtube.
com/watch?v=pi3fAyNyClw
Wright, T., Hughes, P., Ainley, A., Bernasconi, R. y Wood, D. (1988). La paradoja de la mortalidad: una
entrevista con Emmanuel Levinas. En R. Bernasconi & D. Wood (Eds.), La provocación de Levinas:
repensar al otro (págs. 168–180). Londres y Nueva York: Routledge.
Machine Translated by Google

7
MÁS ALLÁ DE LO EXTRAORDINARIO:
TEORIZACIÓN ARTIFICIAL
LA INTELIGENCIA Y LA
YO EN LA VIDA COTIDIANA

Andrea L. Guzmán

La inteligencia artificial es extraordinaria, al menos, así es como se ha concebido culturalmente.


La IA, con su objetivo de dotar a las máquinas de una inteligencia similar a la humana, ha sido
descrita como la búsqueda de un “sueño” (Ekbia, 2008) o, aún más extraordinario, descrita
como seres humanos que asumen el papel de un dios (p. ej., McCorduck et al., 1977). De
manera similar, las implicaciones de la IA para uno mismo y la sociedad se han proyectado a
un nivel mucho más allá del de la tecnología ordinaria. Las promesas y consecuencias de la IA
no se han centrado tanto en quiénes somos como individuos; más bien, lo que está en juego es
quiénes somos como humanos y qué significa ser humano (p. ej., Bostrom, 2016; Haugeland,
1985; Turing, 1950; Turkle, 1984). Aparentemente, la IA pone a nuestra humanidad colectiva
en juego de maneras que pueden elevar o diezmar a la raza humana, dependiendo de cómo se
implemente (por ejemplo, Centro Leverhulme para el Futuro de la Inteligencia, 2017).
Por estas razones, me encontré perplejo hace unos años mientras realizaba un proyecto de
investigación sobre IA. El enfoque del estudio fue comprender mejor las conceptualizaciones
de las personas sobre los agentes sociales vocales (VSA, por sus siglas en inglés)1 ( tecnologías
basadas en la voz y habilitadas para IA, como Siri de Apple) y cómo estas percepciones se
relacionan con la comprensión que las personas tienen de sí mismos en relación con la IA
( Guzmán, 2015). Pero no encontré personas que cuestionaran la inteligencia humana o sus
propias habilidades después de conversar con Cortana. No hubo retorcimiento de manos ni
entusiasmo entusiasta con respecto a lo que estos programas significaban para ellos como
individuos, y mucho menos para la humanidad, ahora o en el futuro. En cambio, las reflexiones
de las personas sobre sí mismas a la luz de los agentes contenían temas similares a los
asociados con las tecnologías cotidianas, como el teléfono móvil. La gente se consideraba
perezosa por pedirle direcciones a un agente en lugar de simplemente escribir una dirección en
el dispositivo. No querían que la gente los percibiera como groseros por hablar con su teléfono
mientras estaban con otras personas. Los usuarios estaban más interesados en cómo una
atrevida Siri podía convertirlos en el centro de atención que en lo que significaba una voz incorpórea llena de pers
Machine Translated by Google

84 Andrea L. Guzmán

por el futuro de la raza humana. Ni la tecnología ni su impacto en el yo desde la perspectiva de los


usuarios parecían extraordinarios; más bien, el yo en relación con la IA parlante parecía ser, bueno,
ordinario, como cualquier otra tecnología.
¿Por qué tal desconexión entre lo que los académicos han promocionado durante mucho tiempo
como las implicaciones de la IA para uno mismo y lo que me decían los participantes? La respuesta
podría ser tecnológica. Cortana y compañía fallan rutinariamente en su trabajo, recordándonos que no
son ni cerca de humanos. Los VSA no poseen la gama completa de inteligencia a nivel humano y tienen
una aplicación limitada. No aceptan trabajos ni realizan tareas fuera del contexto de un asistente personal.
La respuesta también podría ser metodológica.
Tal vez no estaba haciendo las preguntas correctas o teniendo en cuenta otras formas en que los
aspectos del yo pueden manifestarse en las conversaciones sobre IA y tecnología.
El yo y la IA no son exactamente temas que las personas consideren o hablen de manera rutinaria.
Sin embargo, me he dado cuenta de que mi lucha por dar sentido a mis datos era un problema teórico
que tenía componentes tecnológicos y metodológicos entrelazados. Basé mi investigación en la
conceptualización predominante de la IA como extraordinaria: la IA ha sido retratada como algo aparte de
otros esfuerzos tecnológicos porque busca recrear la mente humana dentro de la máquina. Entonces, por
su propia naturaleza, se ha dicho que la IA desafía nuestra propia naturaleza humana (p. ej., Dechert,
1966; Haugeland, 1985; Turing, 1950; Turkle, 1984). El resultado ha sido que durante la mayor parte de
la historia de la IA, el yo en relación con la IA se ha teorizado principalmente en el nivel metafísico, con
énfasis en las implicaciones de la inteligencia artificial para nuestra humanidad. Sin embargo, en mi
investigación, estaba interesado en estudiar el yo a nivel individual, como una forma de teorizar de regreso
al nivel metafísico, no al revés. Además, estaba mirando una tecnología de IA específica, no la IA en su
conjunto. Mi estudio también se llevó a cabo casi 70 años después de que se teorizaron por primera vez
sobre la IA y sus implicaciones para la humanidad. Mientras tanto, particularmente en la última década, la
inteligencia artificial ha evolucionado significativamente. En resumen, la forma predominante de
conceptualizar la IA y teorizar la IA en relación con uno mismo ya no podía explicar en qué se había
convertido la IA. La vieja teoría no se ajustaba a la nueva realidad.

El propósito de este capítulo es desafiar aún más las formas predominantes en que hemos teorizado
la IA en relación con uno mismo, al mismo tiempo que brinda un nuevo enfoque para esta investigación
que está mejor en sintonía con la naturaleza evolutiva de la inteligencia artificial. He escrito este capítulo
específicamente para académicos como yo que estudian IA pero están fuera del campo y enfrentan la
difícil tarea de adaptar y fusionar las teorías existentes de IA con teorías en nuestras propias áreas. Con
ese fin, comienzo brindando una breve descripción general del contexto histórico, tecnológico y teórico en
el que se llegó a teorizar sobre el yo en términos de la perturbación inherente de la IA a la naturaleza
humana. A continuación, explico los problemas actuales y emergentes con esta visión predominante de la
IA y el yo. Una vez que los lectores han tenido la oportunidad de comprender por qué y cómo las teorías
existentes sobre la IA y el yo son inadecuadas para el estudio de la IA actual, presento un enfoque de
investigación que aborda estas deficiencias a partir de la teoría emergente en la comunicación hombre-
máquina.
Machine Translated by Google

Inteligencia artificial y el yo en la vida diaria 85

La IA como algo extraordinario: lo que está en juego para la humanidad

El primer grupo que sugirió que la inteligencia artificial supondría un desafío para la naturaleza
humana fueron los mismos académicos que trabajaban para hacer realidad la IA; aunque, su
motivación para hacerlo varió. Para Turing, abordar las reacciones de las personas ante las
cualidades humanas de las máquinas pensantes era una cuestión pragmática (Gandy, 1999).
Anticipó que categorizar a las máquinas como inteligentes alteraría creencias arraigadas
sobre la naturaleza humana, por lo que al escribir sobre la inteligencia de las máquinas,
Turing (1948, 1950) enfrentó estas objeciones de frente y las refutó. Donde Turing vio un
obstáculo potencial para el avance científico, otros vieron una oportunidad. Algunos
académicos aprovecharon el deseo humano de controlar la naturaleza, incluida la propia,
como una forma de promover la IA. McCorduck y sus colegas describen la búsqueda de la IA
como nada menos que un medio a través del cual los humanos pueden triunfar sobre la
naturaleza, y agregan que “la inteligencia artificial viene bendecida con una de las historias
más ricas y divertidas de la ciencia porque se dirige a algo tan profundo y omnipresente en el
espíritu humano” (1977, p. 954). Otros académicos advirtieron que tales desafíos a la
naturaleza humana alterarían el sentido de las personas sobre su lugar en el orden social y
natural. Al abogar por que los académicos consideren las consecuencias de la automatización,
Theobald (1966) declara: “El hombre ya no necesitará trabajar duro: debe encontrar un nuevo
rol en la era de la cibernética que debe surgir de una nueva meta de autorrealización” ( págs.
68 y 69). Desde la fundación de AI, las implicaciones de AI para nuestra humanidad han sido
una parte integral de la investigación de AI.
Cualquier interacción con la tecnología tiene el potencial de influir en uno mismo y, en ese
sentido, la IA no es única. Sin embargo, no se ha escrito mucho sobre cómo los abridores de
puertas de garaje nos obligarán a repensar nuestra humanidad. Incluso las tecnologías que
han atraído una atención académica significativa con respecto al yo, como las redes sociales
(por ejemplo, Papacharissi, 2011), no han generado un nivel de investigación metafísica que
se acerque al de la IA. La base de la búsqueda de la IA ha sido la conceptualización teórica
de la mente como máquina (Haugeland, 1985). Lo que históricamente ha situado a la IA como
extraordinaria, diferenciándola de las puertas de garaje, las redes sociales y otras tecnologías,
es que la IA busca recrear una parte de nosotros que hemos concebido como exclusivamente
humana: nuestra mente. Son nuestras mentes las que nos separan de los animales y los
objetos y son clave para nuestra humanidad, o eso hemos pensado. Como explica Turkle
(1984) de los académicos de IA: “En el curso del ejercicio de su profesión, han hecho de las
preguntas sobre la inteligencia humana y la esencia humana su reserva y comercio” (p. 20).
El desafío de la IA para la humanidad se ha promulgado en las formas en que los
investigadores han teorizado sobre la IA (Ensmenger, 2012), así como en el discurso científico
y cultural en torno a la IA (Ekbia, 2008).
El enfrentamiento de humanos contra máquinas en una especie de competencia intelectual
ha sido una parte integral del desarrollo y prueba de la teoría y la tecnología de IA (Ensmenger,
2012) y en establecer las apuestas para la IA y el yo. El precedente de teorizar la IA a través
de enfrentamientos intelectuales entre humanos y máquinas comienza con la "prueba" de
Turing (1950) que estableció el estándar para la inteligencia artificial con un
Machine Translated by Google

86 Andrea L. Guzmán

la capacidad del programa de computadora para hacerse pasar por un mecanógrafo humano. El trabajo
para desarrollar programas de ajedrez automatizados que pudieran vencer a oponentes humanos también
se convirtió en un importante campo de pruebas para la teoría y la tecnología de la IA (Ensmenger, 2012).
El uso del ajedrez fue significativo en ese momento porque el ajedrez tiene una larga historia de ser
conceptualizado como el juego que requiere el máximo nivel de intelecto humano (Ensmenger, 2012). Al
utilizar el ajedrez como banco de pruebas teórico del campo, los estudiosos de la IA elevaron las apuestas
ontológicas para humanos y máquinas a uno de sus niveles más altos, si no el nivel más alto en ese
momento. Las computadoras podían trascender su naturaleza al vencer a los humanos en su "mejor"
juego, mientras los humanos defendían su posición ontológica única. Cuando Deep Blue de IBM finalmente
venció al mejor jugador de ajedrez del mundo, el momento fue aclamado como un triunfo para las máquinas
y una pérdida para la humanidad (Bloomfield & Vurdubakis, 2008). Este escenario se ha desarrollado
repetidamente a medida que nuevas batallas intelectuales entre humanos y máquinas, como un juego de
Jeopardy (Kroeker, 2011) o, más recientemente, Go (Anthes, 2017), han seguido empujando las apuestas
de la IA a más y más. niveles

Nuestra comprensión de la IA y su significado para uno mismo también se establece a través de lo


que Ekbia (2008) llama la “charla de la IA”. Esta charla incluye cómo los científicos explican el concepto
de IA, enmarcan sus problemas y discuten sus hallazgos, así como las representaciones de los medios
de la IA, incluidas las tramas de ciencia ficción. La idea de las máquinas pensantes y la conexión entre
humanos y máquinas ha despertado un gran interés y especulación en los medios. Según Ekbia (2008),
una de las razones por las que la IA ha atraído tanta atención de los medios es “que las personas sienten
que los problemas que plantea la IA están directamente relacionados con su propia imagen como seres
humanos” (p. 319). No sorprende, entonces, que la conversación de la IA con respecto al yo permanezca
obsesionada con nuestra naturaleza humana. La teoría de la mente como máquina, en torno a la cual se
fundó la IA, es en sí misma una metáfora, como lo es la inversión posterior de Simon (1999), “máquina
como mente”. En ambas metáforas, la naturaleza de la mente (humana) y la naturaleza de la máquina se
comparan con el fin de establecer una conexión conceptual entre las dos (así como lo que los investigadores
de IA esperaban que eventualmente fuera una conexión teórica y tecnológica). . Además, las tecnologías
de IA y su función se describen principalmente en términos humanos (Ekbia, 2008). El uso intensivo de la
metáfora y el lenguaje antropomórfico en la conversación sobre la IA refleja las afirmaciones teóricas de la
conexión entre humanos

y la máquina que sustenta la IA y, al mismo tiempo, los refuerza (Agre, 1997; Ekbia, 2008). Al hacerlo, la
charla sobre la IA también perpetúa un enfoque en las implicaciones de la IA para nuestra humanidad.

Los factores que he discutido hasta ahora (las teorías que sustentan la IA, los métodos para estudiar
la IA y la conversación sobre la IA) son esenciales para formar y mantener un enfoque en el significado de
la IA para nuestra naturaleza humana. Sin embargo, hay un metafactor subyacente a todos estos otros
que debe discutirse: el origen de la IA en la especulación basada en la realidad tecnológica. La IA no
comenzó con la creación de una mente dentro de una máquina. Más bien, comienza con una idea del
potencial futuro de las computadoras. Hoy en día, las computadoras se dan por sentadas, pero a mediados
del siglo XX, sus capacidades eran alucinantes. Es importante recordar que
Machine Translated by Google

Inteligencia artificial y el yo en la vida diaria 87

fue Turing quien desempeñó un papel integral en el desarrollo de la informática en ese


momento y, por lo tanto, fue una de las pocas personas en el mundo que tuvo acceso a estas
máquinas y fue testigo de sus capacidades. Como ha argumentado Gandy (1999), el famoso
ensayo de Turing (1950) sobre la inteligencia de las máquinas se entiende mejor como
“propaganda” dirigida a convencer a la gente de que se dé cuenta de que “las computadoras
no eran simplemente motores de cálculo, sino que eran capaces de comportarse como algo
inteligente”. (pág. 123). Para Turing, las computadoras ya tenían un grado de inteligencia; por
lo tanto, se deducía que podían hacerse más inteligentes. De manera similar, el taller de
Dartmouth de 1956, que se considera el comienzo de la investigación formal de IA en los
Estados Unidos, se originó a partir de una idea de lo que podría ser posible con las
computadoras. Su propuesta dice: "El estudio debe proceder sobre la base de la conjetura
de que cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede,
en principio, describirse con tanta precisión que se puede hacer una máquina para simularlo".
(McCarthy et al., 2006, pág. 12). El resultado de esta “conjetura” fue un campo formado
enteramente alrededor de una idea de lo que “podría ser”. Graubard (1988) explica el poder
de la especulación para dar forma al carácter único de la investigación en IA:

Si el término inteligencia artificial nunca se hubiera creado, con su implicación de que


una máquina pronto podría replicar la inteligencia de un cerebro humano, habría
habido menos incentivos para crear una empresa de investigación de proporciones
verdaderamente míticas. En un sentido muy fundamental, la IA es una especie de
mito. (pág. v)

Mito aquí lleva el significado denotativo con una connotación positiva de la búsqueda de algo
de gran importancia que aún no se ha logrado.
Las conceptualizaciones de quiénes somos en relación con la IA, entonces, se han
formado en torno al mito de que es la IA. La búsqueda de un mito significó que el trabajo
diario de la IA y las tecnologías desarrolladas se interpretaran y evaluaran no solo en el
contexto de cómo promovieron la comprensión de la mente y la tecnología en el presente,
sino también en función de cómo contribuyeron al objetivo final de IA que aún no se había
realizado. Y así, los avances en IA han servido como una forma de pensar sobre lo que
podría ser posible en el futuro. Esta es una de las muchas razones por las que la IA ha sido
no solo una búsqueda tecnológica sino también un esfuerzo filosófico (Dennett, 1988). Como
explica Dennett (1988), “La mayoría de los proyectos de IA son exploraciones de formas en
que se podrían hacer las cosas y, como tales, se parecen más a experimentos mentales que
a experimentos empíricos” (p. 289). Estos experimentos mentales se extienden a las
implicaciones de la IA para quienes somos. El análisis del yo en la IA se ha llevado a cabo
dentro del contexto del futuro, en el que se realiza el objetivo final de la IA, que presenta los
mayores riesgos para la humanidad.

Reconciliando el futuro de la IA con su presente


La forma predominante en la que hemos teorizado la IA en relación con el yo ha permanecido
obsesionada con lo que significaría la realización futura de la IA para nuestra humanidad.
Machine Translated by Google

88 Andrea L. Guzmán

Sin embargo, existen problemas con este enfoque teórico de la IA y el yo. La idea y el
estudio de la inteligencia artificial no están exentos de críticas, y algunos de los aspectos
clave que subyacen al estudio de la IA que también sirven como base para la forma en que
teorizamos sobre el yo han sido cuestionados. Además, el discurso de la IA que perpetúa la
conexión entre humanos y máquinas y, por lo tanto, refuerza los intereses de la IA para la
humanidad, no siempre representa con precisión la realidad tecnológica de la IA. Además,
la inteligencia artificial (el concepto, su estudio y las tecnologías resultantes) ha seguido
evolucionando, mientras que la teoría predominante del yo en la IA se ha mantenido estática
en gran medida. El estado actual de la IA y su integración en nuestra vida diaria no puede
entenderse completamente a través de una lente teórica desarrollada en torno a la tecnología
de mediados del siglo XX y las posibilidades del futuro.

Las metáforas que dibujan paralelismos entre humanos y máquinas han figurado mucho
en la teoría y el discurso de la IA (Agre, 1997; Ekbia, 2008; Haugeland, 1985; Neisser, 1966).
Algunos académicos han expresado su preocupación por el papel central de estas metáforas
en la forma en que conceptualizamos y hablamos sobre la IA (p. ej., Agre, 1997; Dreyfus,
1999; Neisser, 1966). Su crítica no está tanto en el uso general de la metáfora en la
investigación de IA (ver Agre, 1997); más bien, los académicos han criticado cómo las
metáforas que conectan el cuerpo y la máquina se han subsumido tan completamente que
ya no se cuestionan (p. ej., Neisser, 1966) y, en algunos casos, han dejado de funcionar
como metáforas por completo (p. ej., Agre, 1997; Ekbia, 2008).
Como metáfora, el significado de “cuerpo como máquina” dibuja una comparación entre
humanos y máquinas, pero cuando ya no se aborda la comparación como una metáfora, el
cuerpo se convierte en una especie de máquina. Dentro de algunas líneas de investigación
en IA, la aplicación literal de la metáfora ha reemplazado a la figurativa (Haugeland, 1985).
Estas mismas metáforas también han desempeñado un papel integral en la teorización de
la IA como un desafío intrínseco a nuestra naturaleza humana. A medida que el aspecto
figurativo ha retrocedido, la relación entre humanos y máquinas ya no es de comparación;
en cambio, se equiparan entre sí. La línea ontológica que una vez estuvo entre el hombre y
la máquina (Turkle, 1984) se borra y, por lo tanto, el desafío de la IA a la naturaleza humana
aparentemente se ha establecido firmemente. El resultado no es solo una forma
potencialmente errónea de ver el yo en relación con la IA, sino también la anulación de la
necesidad de buscar formas alternativas de teorizar el yo y la IA.
Los investigadores también han cuestionado el encuadre de las capacidades de la IA
dentro del contexto de los rasgos humanos. Argumentan que las representaciones
antropomórficas de la tecnología de IA pueden ser falsas o, al menos, engañosas porque
se centran en las similitudes entre humanos y máquinas sin tener en cuenta las diferencias (por ejemplo,
Agré, 1997; Ekbia, 2008). Las “batallas intelectuales” de alto riesgo entre humanos y
máquinas también pueden tergiversar los avances en la IA y cuán cerca está la IA de lograr
una inteligencia a nivel humano. Si bien la creación de un programa de ajedrez que pudiera
vencer a los humanos parecía ser una señal de éxito para la IA, Ensmenger (2012) explica
que la realidad tecnológica era más complicada. Sí, los programas de ajedrez podían jugar
al ajedrez y jugarlo bien, pero la tecnología detrás de estos programas
Machine Translated by Google

Inteligencia artificial y el yo en la vida diaria 89

contribuyó menos al avance de la IA que el trabajo en otras áreas. Wat de IBM

son (Kroeker, 2011) y AlphaGo de Google (Anthes, 2017) tienen impresionantes capacidades y
aplicaciones de IA mucho más allá de los juegos que juegan contra humanos. Aun así, al igual que
con el ajedrez, las batallas entre los humanos y estas tecnologías son en gran parte simbólicas,
ya que no representan la complejidad con la que los humanos y la IA se comparan y contrastan
entre sí. En general, la teoría de la IA y la charla sobre la IA no solo enfocan nuestra atención
hacia un aspecto de la comprensión del yo: las implicaciones de la IA para la humanidad. A
menudo crean y refuerzan una imagen sesgada de la IA y su significado para uno mismo.

Como cualquier retrato físico, esta imagen de la IA ha permanecido en gran parte congelada,
capturando lo que se pensaba que era la IA cuando estaba emergiendo por primera vez. Los
primeros esfuerzos en IA se fusionaron en torno a la creación de tecnología que poseía inteligencia
general (Franklin, 2014). Ahora llamada inteligencia general artificial, esta es la conceptualización
de la IA como extraordinaria que se teoriza como poner nuestra naturaleza humana en juego. Pero
si se puede lograr este nivel de IA también ha sido objeto de debate (Dreyfus, 1999; IEEE, 2017b).
Los avances recientes en tecnología, las nuevas formas de teorizar el conocimiento y una mejor
comprensión del cerebro humano han dado cierta credibilidad adicional a la viabilidad de realizar
IA a nivel humano (Bostrom, 2016; IEEE, 2017a; Müller, 2016). Algunos estudiosos incluso han
llegado a considerar el punto en el que la tecnología supera a la inteligencia humana (p. ej.,
Bostrom, 2016; Kurzweil, 2005). Al igual que con la IA a nivel humano, hay mucho en juego para
la "superinteligencia" de las máquinas, según Bostrom: "Este es posiblemente el desafío más
importante y más desalentador al que se haya enfrentado la humanidad. Y, ya sea que tengamos
éxito o fracasemos, es probablemente el último desafío al que nos enfrentaremos” (2016, p. v).
Aunque envejecido, el retrato de la IA formado en sus primeros años tiene poder de permanencia.

Pero, como mito, la IA también tiene aspectos nebulosos, de modo que cuando se ve desde
un ángulo diferente o sin su marco prominente, la imagen de la IA puede cambiar y también su
significado para uno mismo. La inteligencia artificial surgió de un conjunto de ideas sobre lo que
podría ser posible con las computadoras, pero estas ideas nunca se codificaron en una definición
universal de IA (Franklin, 2014). El taller de Dartmouth que estableció la investigación de la IA en
los Estados Unidos no puso en práctica la IA, refiriéndose a ella solo como el “problema de la
inteligencia artificial” (McCarthy et al., 2006). Moor (2006) explica: “El campo de la IA se inició no
por un acuerdo sobre la metodología, la elección de problemas o la teoría general, sino por la
visión compartida de que se puede hacer que las computadoras realicen tareas inteligentes” (p.
87). Esa “visión” se centró inicialmente en la búsqueda de la inteligencia artificial general como un
medio para comprender mejor la mente humana, pero incluso ese trabajo siguió caminos teóricos
y metodológicos divergentes (Dreyfus & Dreyfus, 1988). Finalmente, los objetivos entrelazados de
comprender la mente a través de la tecnología de construcción se convirtieron en dos trayectorias
de investigación dentro de la IA: el estudio de la mente y la ingeniería de máquinas
"inteligentes" (Franklin, 2014). Estas trayectorias pueden cruzarse, pero, más a menudo, proceden
por separado (Boden, 2016), a partir de diversas conceptualizaciones de la IA y contribuyendo a
ellas.
Machine Translated by Google

90 Andrea L. Guzmán

El trabajo dentro de la ingeniería de la IA, en particular, ha ofrecido una forma alternativa de


teorizar la IA. A medida que avanzaba el campo, algunos académicos cambiaron su enfoque del
objetivo a largo plazo de crear una mente computarizada hacia el objetivo a corto plazo de la
comercialización de tecnología que podría llevar a cabo ciertas tareas que requieren un tipo
específico de conocimiento. Cuarenta años después de la fundación de AI, Winston (1987) resumió
las diferentes prioridades del campo: “El objetivo principal de la Inteligencia Artificial es hacer que
las máquinas sean más inteligentes. Los objetivos secundarios de la Inteligencia Artificial son
comprender qué es la inteligencia (el propósito del premio Nobel) y hacer que las máquinas sean
más útiles ("el propósito empresarial" (p. 1).
Si bien los académicos de IA inicialmente buscaron crear máquinas autónomas para comprender
la mente humana, los investigadores comenzaron a ver la construcción de dispositivos inteligentes
como un fin en sí mismo. Hoy en día, la ingeniería de dispositivos inteligentes es el área de
investigación más destacada dentro de la IA (Boden, 2016). Si bien los esfuerzos hacia la
inteligencia general artificial están en curso, la mayoría de los programas de IA que se encuentran
en las aplicaciones comerciales se clasifican como IA estrecha (Holdren & Smith, 2016), tecnología
que opera "inteligentemente dentro de un dominio relativamente estrecho" (Franklin, 2014, p. dieciséis).
Los avances en la IA, así como en la informática en general, también han empujado aún más
a la IA fuera de los laboratorios de investigación y hacia los espacios cotidianos. Boden (2016)
explica cuán generalizada se ha vuelto la IA: “Las aplicaciones prácticas de la IA se encuentran
en el hogar, el automóvil (y el automóvil sin conductor), la oficina, el banco, el hospital, el cielo…
e Internet, incluido Internet. of Things (que conecta los sensores físicos en constante multiplicación
en nuestros dispositivos, ropa y entornos” (p. 1). La IA con la que interactuamos a diario, nos
demos cuenta o no, no son ni las entidades inteligentes fantasiosas de la ciencia ficción ni las
tecnologías de inteligencia superior que algunos investigadores de IA aspiran a construir. En
cambio, nos encontramos con tecnologías de IA que realizan tareas específicas a lo largo de los
diversos aspectos de nuestras vidas. Sin embargo, la lente predominante disponible para nosotros
para teorizar el yo dentro del contexto de la IA se formó en torno a las tecnologías de IA de un
mañana ficticio, no hoy.
Volviendo a mi anécdota inicial, ahora es fácil ver por qué estaba tan desconcertado por mis
datos. Desarrollé mi cuestionario de entrevista original basado en la visión predominante del yo en
relación con la IA, conceptualizándose la IA en el contexto de la inteligencia artificial general; sin
embargo, estaba estudiando el yo en relación con un tipo muy diferente de IA (un agente basado
en la voz) que opera dentro de un marco específico, como asistente, y se encuentra dentro de los
aspectos mundanos de la vida cotidiana, no como una experiencia proyectada. hacia el futuro.
Estaba aplicando una teoría del yo que se desarrolló en torno a la IA como extraordinaria al
estudio de la IA que se situaba dentro de lo ordinario. La lente teórica no coincidía con mi tema.

IA dentro de lo ordinario
Hasta hace poco, la IA se ha teorizado como extraordinaria y existía principalmente fuera del
ámbito de lo ordinario. La IA se ha restringido físicamente a los laboratorios de investigación,
Machine Translated by Google

Inteligencia artificial y el yo en la vida diaria 91

teóricamente proyectada hacia el futuro y culturalmente confinada a los medios, lo que


significa que la persona promedio tenía poca o ninguna oportunidad de experimentar la IA
de primera mano. Por lo tanto, también ha sido difícil para los académicos estudiar las
implicaciones de la IA para el yo a nivel individual (otra razón por la cual la teoría sobre el
yo en la IA permaneció estancada). La evolución de la IA que requiere una nueva forma
de teorizar la IA y el yo también ha aflojado algunas de estas antiguas barreras para esta
investigación. Los académicos tienen la oportunidad de estudiar cómo las personas se
conceptualizan a sí mismas en relación con la IA, que forma cada vez más parte de su
vida cotidiana. El desafío ahora es encontrar un camino teórico y metodológico a seguir
que no se limite a lo que alguna vez fue o se proyectó que sería la IA, sino que responda
a lo que es la IA y quiénes somos.
La teoría que se está desarrollando en el área emergente de la comunicación hombre-
máquina proporciona uno de esos enfoques. En mi investigación sobre inteligencia
artificial (Guzman, 2015, 2017) y tecnología en general (Guzman, 2016, In Press), he
abogado por que los académicos conceptualicen las interacciones con dispositivos y
programas como una forma de comunicación. Desde esta perspectiva teórica, una
persona no usa simplemente la IA, como lo haría con una herramienta; más bien, dan
sentido a la IA en un proceso dinámico con estas tecnologías. Tanto el ser humano como
la máquina juegan un papel activo en cómo se entiende la máquina (ver también Neff & Nagy, 2016).
La tecnología, en este caso la IA, ya no se posiciona solo como un medio que transmite
información entre humanos, sino que también se teoriza como un tipo de comunicador.

La utilidad de esta conceptualización teórica de nuestras interacciones con la IA es


que abre una forma de comprender simultáneamente cómo vemos una tecnología de IA
específica y cómo nos vemos a nosotros mismos a la luz de ella. El proceso de
comunicación está en el corazón de cómo llegamos a conocernos a nosotros mismos ya
los demás (Blumer, 1969; Goffman, 1959; Mead, 1934); esto incluye tanto la interacción
directa con un compañero de comunicación como la comunicación indirecta con otros
sobre ellos. Como he adaptado esta posición epistemológica formada originalmente en
torno a los humanos a un contexto humano-máquina, la máquina se convierte en un socio
de comunicación. Entonces, el enfoque es cómo le damos sentido a la tecnología de IA a
través de lo que se desarrolla en nuestras interacciones con ella, así como lo que
aprendemos de otros, y cómo evaluamos quiénes somos en relación con un programa o
dispositivo de IA específico. Intrínseco a este enfoque fenomenológico de la comunicación
hombre-máquina es que las conceptualizaciones del yo y la IA que se están formando se
entienden como temporales y contextuales.
Siguiendo este enfoque, el estudio de quiénes somos en relación con la IA implica
tomar en consideración tanto las características de la tecnología particular en cuestión
como los diversos elementos que contribuyen al yo. Como traté de dejar claro
anteriormente en este capítulo, referirse simplemente a una tecnología como IA no es
suficiente. Dada la ambigüedad que rodea a los diferentes tipos de IA, corresponde a los
académicos comprender qué tipo de IA están estudiando y cómo sus características
pueden afectar potencialmente la forma en que las personas entienden la tecnología y
Machine Translated by Google

92 Andrea L. Guzmán

ellos mismos. Un ejemplo detallado de la evaluación de una tecnología de IA individual desde


una perspectiva de comunicación está disponible en Guzmán (2017), por lo que aquí toco
solo algunos elementos clave.
Dadas las diferentes formas en que se conceptualiza la IA, los académicos deben
determinar dónde encaja una tecnología en particular dentro de la IA en su conjunto: ¿Quién
construyó la tecnología? ¿Cual es su propósito? ¿Qué hace la tecnología? ¿Cuál es el nivel
de inteligencia involucrado? ¿La tecnología está orientada hacia una tarea altamente
específica (restringida) o funciona de manera más general? La atención también debe
centrarse en los aspectos de las interacciones directas de las personas con la tecnología que
informan su comprensión de la misma: ¿En qué contexto(s) las personas interactúan o se
encuentran con la tecnología? ¿Cómo presenta la interfaz la tecnología al usuario?
¿Cómo tiene lugar la interacción entre alguien y la tecnología, incluidos los modos de
comunicación y los mensajes (verbales y no verbales) intercambiados? Debido a que lo que
sabemos de los demás también se basa en lo que nos dicen sobre ellos, es posible que los
investigadores deban tener en cuenta los mensajes relacionados con una tecnología en
particular y la IA en general: ¿Cómo comercializa la tecnología la empresa? ¿Cómo enmarcan
la tecnología las representaciones de los medios?
¿Qué similitudes existen entre la tecnología que se estudia y las representaciones culturales
populares de la IA?
Más allá de su propia evaluación de la tecnología de IA, los académicos tendrán que dar
cuenta de las propias interpretaciones de la tecnología por parte de los usuarios. Como
aprendí en mi investigación sobre los agentes sociales vocales, los usuarios tienen una
amplia definición de lo que constituye la IA. Algunas personas pensaron en la tecnología de
voz de Cortana, Siri y Google como IA porque los programas podían responder preguntas y
proporcionar información bastante bien. Otras personas pensaban que los agentes eran una
forma más débil de IA o algo parecido a la IA, pero no del todo, porque los agentes tenían
fallas o no poseían la gama completa de inteligencia humana. Otros no consideraron que los
agentes fueran IA porque los programas eran demasiado simples para ser considerados
inteligentes, y algunas personas no pudieron categorizar estas tecnologías porque no sabían
lo suficiente sobre IA para tomar una determinación. Al decidir si Siri y programas similares
eran IA, las personas se basaron en el conocimiento sobre IA obtenido a partir de la
experiencia personal o profesional, así como de las representaciones en los medios. También
compararon y contrastaron la IA con otras tecnologías. En algunos casos, las personas
definieron la IA de manera similar, pero llegaron a conclusiones diferentes sobre si los
agentes calificaban como IA.
Las conceptualizaciones de amplio alcance de los usuarios sobre la IA subrayan aún
más la complejidad del estudio de la IA y el yo. Si una persona no considera que un dispositivo
o programa sea IA, cuando desde un punto de vista tecnológico y de investigación podría
definirse como IA, ¿cómo debemos interpretar su comprensión de sí mismo en relación con
la IA? ¿Qué pasa si la conceptualización de IA de un participante se basa en una definición
de IA diferente pero también aceptada? Es muy posible que en un proyecto de investigación
un participante y el investigador tengan definiciones de IA divergentes pero externamente
válidas. Los enfoques como el que he esbozado aquí dictan que se preste especial atención
Machine Translated by Google

Inteligencia artificial y el yo en la vida diaria 93

pagado al etic y al emic ya la ponderación de uno contra el otro. En eso, el estudio de la IA no es


diferente. Pero la nebulosidad y la relativa novedad de la IA, como tecnología real versus ficticia,
requieren un cuidado especial al formular nuestras preguntas de investigación y al interpretar los datos.

Por eso es tan importante para nosotros, como investigadores, protegernos de nuestra propia
fijación con lo extraordinario de la IA que se ha arraigado tanto en nosotros.

las formas predominantes en que se ha teorizado la IA (y por qué dediqué dos tercios de este capítulo
a explicar por qué esta visión es tan generalizada y problemática). Lo que me llevó al avance teórico
que subyace en este capítulo fue la decisión de mirar más allá de la visión dominante de la IA en
relación con uno mismo.
En lugar de centrarme en las reacciones de las personas y las interpretaciones de los rasgos humanos
de los agentes, las características de la IA que se supone que desafían nuestra naturaleza humana,
cambié mi enfoque para comprender lo que mis participantes me dijeron una y otra vez que era lo más
importante para ellos, los aspectos “ordinarios” de la IA como tecnología. La gente comparaba
rutinariamente a los agentes con las tecnologías cotidianas (teléfonos móviles, dispositivos de
navegación) y las expectativas en torno a la tecnología en general (utilidad, facilidad de uso, etc.) para
decidir si utilizar un agente, cómo y cuándo.
Esto no quiere decir que la gente no reconociera elementos parecidos a los humanos dentro de estos
agentes. Estas características, como la capacidad de hablar, aprender y representar una personalidad
particular, desempeñaron un papel fundamental en la forma en que las personas entendieron a los
agentes. Pero la mayoría de la gente vio estos rasgos humanos dentro del contexto de la máquina,
evaluando si estos rasgos hacían de los agentes una tecnología mejor que otros programas y dispositivos.

Los aspectos tecnológicos de los agentes basados en la voz también fueron los más importantes
en la forma en que las personas incorporaron estas tecnologías en las actuaciones y percepciones de
sí mismos. Algunas personas que adoptaron a Cortana o Siri usaron regularmente a los agentes porque
se veían a sí mismos como avanzados en tecnología. Otros rechazaron a los agentes porque
consideraron que los programas eran un ejemplo más de tecnología innecesaria y se enorgullecían de
no caer en estas tendencias o volverse demasiado dependientes de la tecnología. De manera
relacionada, algunos usuarios se describieron a sí mismos o a otras personas como perezosos por usar
una tecnología basada en voz cuando escribir una solicitud funcionó lo suficientemente bien. Y así, un
nivel limitado de inteligencia y la capacidad de comunicarse no establecieron un enfrentamiento
ontológico entre Cortana, una máquina, y el usuario, un ser humano. Tampoco los elementos humanos
de los agentes invocaron en la mayoría de las personas una reflexión existencial sobre lo que significa
ser humano. En la mente de las personas que usan agentes sociales vocales, lo que está en juego es
su productividad, no su humanidad.

Más allá de lo extraordinario: la IA como ordinaria

Mientras escribía este capítulo, la organización profesional IEEE publicó una edición especial de una
revista sobre IA (IEEE, 2017a) con una sección de preguntas y respuestas en la que pedía a destacados
académicos de IA que opinaran sobre el futuro de la inteligencia artificial general. Cuando se le preguntó
Machine Translated by Google

94 Andrea L. Guzmán

“cómo las computadoras cerebrales [sic] cambiarían el mundo”, respondió Rodney Brooks, en
parte:

Dado que no tendremos computadoras inteligentes como los humanos durante más de
100 años, no podemos hacer proyecciones sensatas sobre cómo cambiarán el mundo,
ya que no entendemos cómo será el mundo en 100 años.
(IEEE, 2017b)

Aunque no siempre estoy de acuerdo con Brooks, es importante recordar su punto para avanzar
en el estudio de la IA y su impacto en la comprensión del yo. El comentario de Brooks se hace
eco de una crítica en curso sobre cómo discutimos y teorizamos sobre la IA como si de repente
apareciera de la nada. Este es otro ejemplo de cómo la IA es extraordinaria. La IA es diferente a
cualquier otra tecnología, no solo porque posee elementos similares a los humanos, sino porque
al tener estos rasgos, la IA está mágicamente exenta de los procesos normales a través de los
cuales damos sentido a nuestro mundo. Al menos, así es como nos hemos acercado al estudio
de la IA y el yo.
Durante 70 años, hemos conceptualizado la IA como una tecnología que desafía inherentemente
nuestra propia naturaleza y nuestra humanidad. Sin embargo, la IA que supuestamente conducirá
a tal trastorno ontológico no existía cuando se introdujo por primera vez este punto de vista
teórico y todavía no existe en la actualidad. Nuestra teoría de lo que la IA significa para uno
mismo se ha basado en interpretaciones de la tecnología contemporánea proyectada hacia el futuro.
Pero, como he demostrado brevemente aquí, cuando adoptamos un enfoque que sitúa el
estudio de la IA y el yo dentro del contexto de nuestras experiencias vividas, aparece una imagen
diferente de la IA. Y esto es lo que quiero decir con IA ordinaria. La IA puede tomar como modelo
a los humanos, lo que la hace potencialmente diferente de otras tecnologías, pero no está exenta
de las formas en que damos sentido a nuestro mundo. Además, no importa cuán humana se
vuelva la tecnología, nuestro propio sentido de identidad también permanece arraigado en
nuestras interacciones con el mundo que nos rodea. Y así, independientemente del grado de
inteligencia en la tecnología que tenemos ante nosotros, para comprender la IA y a nosotros
mismos, debemos recordar ir más allá de la idea de que la IA es extraordinaria y abordarla como
ordinaria.

Nota
1 La mayor parte del trabajo empírico mencionado en este capítulo se deriva de mi disertación (Guzmán,
2015), y algunos de los términos utilizados aquí y las discusiones de los hallazgos pueden diferir
ligeramente de cómo los presenté originalmente en la disertación. Por ejemplo, ahora uso el término
“agente social vocal”, o VSA, para referirme a los agentes que estudié (ver Guzmán, 2017).

Referencias
Agre, PE (1997). Computación y experiencia humana. Cambridge: Universidad de Cambridge
Presionar.
Machine Translated by Google

Inteligencia artificial y el yo en la vida diaria 95

Anthes, G. (2017). La inteligencia artificial lista para montar una nueva ola. Comunicaciones de la ACM, 60,
19–21. doi: 10.1145/3088342 Bloomfield, BP y Vurdubakis, T. (2008). Los jugadores de ajedrez de IBM:
sobre la IA y sus complementos.
La Sociedad de la Información, 24, 69–82. doi: 10.1080/01972240701883922
Blumer, H. (1969). Interaccionismo simbólico: Perspectiva y método. Acantilados de Englewood, Nueva Jersey:
Prentice Hall.

Boden, M. (2016). AI: Su naturaleza y futuro. Oxford: Prensa de la Universidad de Oxford.


Bostrom, N. (2016). Superinteligencia: Caminos, peligros, estrategias. Oxford: Universidad de Oxford
Presionar.

Dechert, CR (Ed.). (1966). El impacto social de la cibernética. Nueva York: Simon & Schuster.
Dennett, DC (1988). Cuando los filósofos se encuentran con la inteligencia artificial. Dédalo, 117
(Inteligencia artificial), 283–295.
Dreyfus, HL (1999). Lo que las computadoras todavía no pueden hacer: una crítica de la razón artificial, 6ª
ed. Cambridge, MA: MIT Press.
Dreyfus, HL y Dreyfus, SE (1988). Hacer una mente versus modelar el cerebro: la inteligencia artificial de
vuelta en el punto de ramificación. Dédalo, 117 (Inteligencia artificial), 15–34.
Ekbia, HR (2008). Sueños artificiales: la búsqueda de la inteligencia no biológica. Nueva York: Cambridge
University Press.
Ensmenger, N. (2012). ¿Es el ajedrez la drosófila de la inteligencia artificial? Una historia social de un algoritmo.
Estudios Sociales de la Ciencia, 42(1), 5–30. doi: 10.1177/0306312711424596 Franklin, S. (2014). Historia,
motivaciones y temas centrales. En K. Frankish & WM Ramsey (Eds.), El manual de inteligencia artificial de
Cambridge. Cambridge: Prensa de la Universidad de Cambridge.

Gandy, R. (1999). Humanos versus inteligencia mecánica. En P. Millican & A. Clark (Eds.), Máquinas y
pensamiento: El legado de Alan Turing, vol. 1 (págs. 125-136). Oxford: Prensa de la Universidad de Oxford.

Goffman, E. (1959). La presentación de cada uno en la vida diaria. Nueva York: Anchor Books.
Graubard, SR (1988). Prefacio al número “Inteligencia Artificial”. Dédalo, 117 (Artificial
Inteligencia), V–VIII.
Guzmán, AL (2015). Imaginando la voz en la máquina: La ontología de los agentes sociales digitales.
Chicago: Universidad de Illinois en Chicago.
Guzmán, AL (2016). Los mensajes de las máquinas mudas: Comunicación hombre-máquina con tecnologías
industriales. comunicación +1, 5(1). http://scholarworks.umass.edu/cpo/vol5/iss1/4 _

Guzmán, AL (2017). Hacer que la IA sea segura para los humanos: una conversación con Siri. En RW Gehl &
M. Bakardjieva (Eds.), Socialbots y sus amigos: Medios digitales y la automatización de la socialidad (págs.
69–82). Nueva York: Routledge.
Guzmán, AL (en prensa). ¿Qué es la comunicación hombre-máquina, de todos modos? En AL Guzman (Ed.),
Human-Machine Communication: Rethinking Communication, Technology, & Our selves New York: Peter
Lang.
Haugeland, J. (1985). Inteligencia artificial: La idea misma. Cambridge, MA: MIT Press.
Holdren, JP y Smith, M. (2016). Preparándose para el futuro de la inteligencia artificial. Washington, DC:
Consejo Nacional de Ciencia y Tecnología, Comité de Tecnología. www. datascienceassn.org/sites/default/
files/Preparing%20for%20the%20Future%20of%20 Artificial%20Intelligence%20-
%20National%20Science%20and%20Technology%20 Council%20-%20October%202016.pdf IEEE.
(2017a). ¿Podemos copiar el cerebro? IEEE Spectrum: Technology, Engineering, and Science News, 31
de mayo. http://spectrum.ieee.org/static/special-report-can-we-copy-the-brain
Machine Translated by Google

96 Andrea L. Guzmán

IEEE. (2017b). La IA a nivel humano está a la vuelta de la esquina, o dentro de cientos de años.
IEEE Spectrum: Noticias de tecnología, ingeniería y ciencia, mayo. http://spectrum.ieee. org/computing/
software/humanlevel-ai-is-a la vuelta de la esquina-o-a cientos de años de distancia

Kroeker, KL (2011). Pesando el impacto de Watson. Comunicaciones de la ACM, 54(7), 13. doi:
10.1145/1965724.1965730
Kurzweil, R. (2005). La singularidad está cerca. Nueva York: pingüino.
Centro Leverhulme para el Futuro de la Inteligencia. (2017). Acerca de: Preparación para la era de las
máquinas inteligentes. http://lcfi.ac.uk/ McCarthy, J., Minsky, ML, Rochester, N. y Shannon, CE (2006).
Una propuesta para el proyecto de investigación de verano de Dartmouth sobre inteligencia artificial, 31 de
agosto de 1955. AI Mag azine, 27(4), 12.

McCorduck, P., Minsky, M., Selfridge, OG y Simon, HA (1977). Historia de la inteligencia artificial. En IJCAI
(págs. 951–954). http://ijcai.org/Proceedings/77–2/Papers/083. pdf

Aguamiel, GH (1934). Obstáculos y promesas en el desarrollo de la sociedad. En mente, uno mismo


y Sociedad. Chicago: Prensa de la Universidad de Chicago, 317–327.
Moro, J. (2006). La conferencia de inteligencia artificial de Dartmouth College: los próximos cincuenta
años. Revista AI, 27(4), 87.
Muller, VC (2016). Nuevos desarrollos en la filosofía de la IA. En VC Müller (Ed.), Cuestiones fundamentales
de inteligencia artificial, vol. 376 (págs. 1 a 4). Suiza: Springer.
Neff, G. y Nagy, P. (2016). Automatización, algoritmos y política: hablando con bots: agencia simbiótica y el
caso de Tay. Revista Internacional de Comunicación, 10, 17.
Neisser, U. (1966). Las computadoras como herramientas y como metáforas. En CR Dechert (Ed.), Lo social
impacto de la cibernética (págs. 71–93). Nueva York: Simon & Schuster.
Papacharissi, Z. (2011). Un yo en red. Nueva York: Routledge.
Simón, HA (1999). Máquina como mente. En P. Millican & A. Clark (Eds.), Máquinas y pensamiento: El
legado de Alan Turing, vol. 1 (págs. 81 a 102). Oxford: Prensa de la Universidad de Oxford.
Teobaldo, R. (1966). La cibernética y los problemas de reorganización social. en CR
Dechert (Ed.), El impacto social de la cibernética (págs. 39–70). Nueva York: Simon & Schuster.
Turing, AM (1948). Maquinaria inteligente. En DC Ince (Ed.), Inteligencia mecánica (págs. 107–128). Nueva
York: Holanda Septentrional.
Turing, AM (1950). Maquinaria informática e inteligencia. En DC Ince (Ed.), Inteligencia mecánica (págs.
133–160). Nueva York: Holanda Septentrional.
Turkle, S. (1984). El segundo yo. Nueva York: Simon & Schuster.
Winston, PH (1987). Inteligencia artificial: una perspectiva. En WEL Grimson & RS
Patil (Eds.), AI en la década de 1980 y más allá: una encuesta del MIT (págs. 1–12). Cambridge, MA:
MIT Press.
Machine Translated by Google

8
AGENCIA EN LA ERA DIGITAL:
USO DE LA AGENCIA SIMBIÓTICA PARA
EXPLICAR HUMANO-TECNOLOGÍA
INTERACCIÓN

Gina Neff y Peter Nagy

Los avances recientes en tecnología desafían nuestras nociones fundamentales de poder y


agencia humana. Las herramientas y técnicas, incluido el aprendizaje automático, la inteligencia
artificial y los chatbots, pueden ser capaces de ejercer comportamientos "agentes" complejos
(Dhar, 2016). Las tecnologías avanzadas son capaces de comunicarse con los seres humanos
de una manera cada vez más sofisticada. Estos encuentros con máquinas interactivas, que van
desde socios de chat artificiales a través de los algoritmos comerciales de las redes sociales
hasta robots de última generación, a menudo dan como resultado una relación compleja e íntima
entre los usuarios y las tecnologías (Finn, 2017).
Por ejemplo, ahora las personas pueden tener sus propios asistentes virtuales, como Siri de
Apple y Alexa de Amazon. Otros agentes tecnológicos comerciales “ayudan” a las personas a
encontrar nuevas películas en Netflix o amigos en Facebook. Los compañeros robóticos, como
Hug Gable desarrollado por Cynthia Lynn Breazeal en el MIT, pueden leer las emociones
humanas y reaccionar ante ellas en consecuencia. Los chatbots han evocado durante mucho
tiempo reacciones de las personas que pueden usarse terapéuticamente para el asesoramiento
psicológico y ahora estas herramientas se están implementando como aplicaciones para ayudar
a las personas a sobrellevar la ansiedad y la depresión (Lien, 2017; Neff & Nagy, 2016). Tales
desarrollos presentan un dilema para los estudiosos de la comunicación. ¿Importa la agencia de
las personas y, cada vez más, de las cosas con las que elegimos comunicarnos? Esta pregunta
nos impulsa a instar a los estudiosos de la comunicación a desarrollar una mejor definición de
agencia y más claridad sobre cómo la agencia se representa en la práctica dentro de interacciones
complejas mediadas tecnológicamente.
La agencia ha sido intrínsecamente confusa, refiriéndose a diferentes conceptos dependiendo
de la disciplina particular en la que se utilice. Campbell (2005) señala que “la agencia es
polisémica y ambigua, término que puede referirse a invención, estrategias, autoría, poder
institucional, identidad, subjetividad, prácticas y posiciones de sujeto, entre otros” (p. 1). La
agencia tiene
Machine Translated by Google

98 Gina Neff y Peter Nagy

durante mucho tiempo connotó una habilidad humana distintiva y algo que, por definición,
solo los humanos poseen. Las teorías que conectan la agencia con la intencionalidad
(Jansen, 2016) y con la capacidad para alcanzar las propias metas (Caston, 2011) amplifican
este sentido de agencia. La idea de agencia como inherentemente social y cooperativa está
restringida por los elementos simbólicos y materiales del contexto y la cultura (Campbell,
2005).
Las teorías sociales recientes han comenzado a analizar cómo los no humanos, al igual
que las tecnologías, pueden adquirir capacidades de agencia y habilidades cuasi-agentes.
Por ejemplo, cuando se discuten las implicaciones sociales generalizadas de estos artefactos
tecnológicos emergentes, los académicos de estudios de comunicación y medios a menudo
se enfocan en cómo y para qué fines las personas usan estas herramientas. Como tales,
enfatizan el papel del contexto social y/o las posibilidades en el uso de la tecnología (p. ej.,
Balsamo, 2011; Cooren, 2010; Siles y Boczkowski, 2012). Sin embargo, los estudiosos de la
comunicación y los medios tienden a ignorar las diferentes formas en que los usuarios
imaginan y se comunican con estos agentes sociales interactivos (Guzman, 2016; Leonardi
& Barley, 2008). Los estudiosos de los estudios de ciencia y tecnología (STS, por sus siglas
en inglés) ya han mapeado cómo los agentes humanos y tecnológicos interactúan entre sí.
Bruno Latour (1999) del movimiento Actor-Network Theory (ANT) y François Cooren (2010)
de la Escuela de comunicación organizacional de Montreal han teorizado las tensiones entre
actores humanos y no humanos. De manera similar, los estudiosos de la comunicación y los
medios se han centrado en las diferentes formas en que los usuarios obtienen significado de
los encuentros con tecnologías capaces de ejercer una amplia gama de comportamientos de
agencia (p. ej., Grossberg, 1997; Foss et al., 2007). Lo que estas conceptualizaciones aún
pasan por alto es que no han abordado las diferencias y similitudes ontológicas entre la
agencia humana y no humana (Jansen, 2016).
Como correctivo, reformulamos y redefinimos la agencia en términos de cómo y cuándo
las personas interactúan con sistemas tecnológicos complejos. Para ello recurrimos a la
teoría psicológica social-cognitiva de la agencia humana de Albert Bandura y al concepto de
simbiosis en biología. La teoría de la agencia de Bandura nos ayuda a comprender el papel
de los usuarios en la configuración y determinación de los sistemas técnicos. Ser un agente
significa que las personas pueden ejercer una influencia intencional sobre sus procesos
mentales y acciones físicas para lograr los resultados deseados (Bandura, 2006). Las
personas, sin embargo, rara vez actúan por su cuenta. Tienden a delegar tareas a tecnologías
sofisticadas (p. ej., teléfonos inteligentes, computadoras, etc.), a menudo viéndolos como
asistentes personales y compañeros en lugar de simples herramientas. Rod y Kera (2010)
han utilizado específicamente el término “simbiosis” para nuestras crecientes relaciones de
interdependencia con las tecnologías. La teoría que ampliamos con este capítulo imagina la
interacción humano-tecnología como una interacción simbiótica de agentes humanos y no
humanos, desdibujando aún más la línea entre lo que los usuarios quieren hacer y lo que las
tecnologías son capaces de hacer. En el presente capítulo, presentaremos nuestra teoría de
la agencia simbiótica y mostraremos cómo puede abordar los problemas en torno a las
teorías de la agencia desarrolladas por los estudios de comunicación y medios, así como en
los estudios de ciencia y tecnología.
Machine Translated by Google

Agencia en la Era Digital 99

Agencia de conceptualización en humano-tecnología


Interacciones: un proyecto inacabado
La agencia generalmente se ve como la capacidad de actuar, producir y anticipar un resultado deseado
dentro de un contexto particular (Giddens, 1979; Wang, 2008; Leonardi, 2011). Este elemento
contextual para las definiciones académicas significa que la agencia es “comunal, social, cooperativa
y participativa y, simultáneamente, está constituida y restringida por los elementos materiales y
simbólicos del contexto y la cultura”.
(Campbell, 2005, pág. 3). Las teorías de la comunicación tienden a centrarse en explorar cómo los
usuarios construyen el significado a través de la manipulación reflexiva y simbólica de las tecnologías
(Siles & Boczkowski, 2012). Como tal, los estudiosos de la comunicación y los medios han logrado un
progreso real al ir más allá de las anteriores visiones simplistas de la interacción entre humanos y
tecnología en las que los humanos siempre tienen el control y las tecnologías no ejercen influencia
sobre sus usuarios (Orlikowski, 2005; Lievrouw, 2013; Guzman , 2016). Sin embargo, las teorías de
estudios de comunicación y medios a menudo no llegan a conceptualizar agencias humanas y no
humanas interdependientes y entrelazadas, y en su lugar se centran en las dimensiones de agencia de
los sistemas sociotécnicos (p. ej., Leonardi & Barley, 2008).

Para los estudiosos de STS, la agencia se considera típicamente como la capacidad general de
las personas para dar forma a la forma material y el significado de los artefactos a través de prácticas
e interacciones (Pickering, 1995; Feenberg, 1999; Gillespie, 2006). La literatura de STS analiza la
agencia junto con la materialidad o el contenido de las tecnologías de los medios, enmarcando la
agencia como una noción dinámica centrada en cómo los usuarios crean e interpretan, así como
también dan forma y adjuntan contenido a las tecnologías de los medios. Como Latour (1999) expresó
esto, “somos animales sociotécnicos y cada interacción humana es sociotécnica” (p. 214). Con esto
quiso decir que las personas deleguen tareas a las tecnologías, inscribiéndolas en guiones más
grandes para la acción. Los badenes de tráfico reemplazan a los oficiales de policía parados en las
intersecciones, que entran en acción mediante una serie de enlaces conectados para instar a los
conductores a reducir la velocidad. Desde la perspectiva de Latour, la agencia siempre se puede
entender mejor como una interacción compleja de no humanos y humanos en estos sistemas más
grandes. Los humanos hacen que los no humanos actúen en su nombre, pero los no humanos también
hacen lo mismo con los humanos (Hannemyr, 2003).
El proyecto más grande de STS y ANT profundizó nuestra comprensión de las dimensiones
sociales y la "vida" social de las tecnologías. Tanto los estudiosos de la comunicación como los de
CTS han demostrado cómo la agencia está integrada en un panorama sociocultural más amplio.
Lamentablemente, también condujo a lo que podríamos argumentar como explicaciones simplificadas
del papel de la tecnología como fuerza social y una conceptualización confusa de la agencia. Traer un
lenguaje para abordar la naturaleza multifacética de la agencia humana y sus conexiones con los
agentes tecnológicos ayudaría a corregir esto.
Nuestra definición práctica pragmática de agencia es lo que hacen los usuarios, actores y
herramientas cuando interactúan con sistemas tecnológicos complejos. Esto quiere decir que la
agencia está íntimamente ligada a la intencionalidad (Jansen, 2016) ya la capacidad de alcanzar los
propios objetivos (Caston, 2011). La agencia puede movilizar a las personas para que reflexionen sobre su experiencia,
Machine Translated by Google

100 Gina Neff y Peter Nagy

adaptarse a su entorno y afectar el contexto sociocultural que a su vez los sustenta (Jenkins,
2008). Desde este punto de partida, ampliamos la noción de agencia combinando la teoría de la
agencia de Albert Bandura y el concepto de simbiosis. Esto ayudará a los académicos a desarrollar
una comprensión más matizada y detallada de cómo las personas piensan, sienten y actúan
cuando interactúan con la técnica.

Definición de la agencia humana desde un punto de vista social-cognitivo


Perspectiva

Albert Bandura, uno de los pensadores sociocognitivos más influyentes, considera que la agencia
humana es una fuerza central en el funcionamiento humano (Bandura, 1989). Ser un agente
significa que las personas pueden ejercer una influencia intencional sobre sus procesos mentales
y acciones físicas para lograr los resultados deseados (Bandura, 2000).
La agencia permite a las personas ejercer un mayor control sobre su funcionamiento mental y
monitorear cómo sus comportamientos afectan el mundo que los rodea (Bandura, 2001). La
perspectiva cognitiva social sostiene que la agencia humana se construye en torno a cuatro
propiedades centrales (Bandura, 2006). El primero es la intencionalidad, que se refiere a los planes
de acción y las posibles estrategias que forman las personas para alcanzar sus metas y aspiraciones.
La segunda propiedad es la previsión, los planes que los humanos fabrican para el futuro,
ayudándolos a establecer metas y anticipar resultados probables; por lo tanto, la previsión juega
un papel importante en la orientación y motivación de los esfuerzos de las personas. Además, los
agentes no son solo planificadores, sino también autorreguladores capaces de gestionar sus
emociones y cogniciones. Finalmente, el último componente, la autorreflexión, permite a los seres
humanos examinar su propio funcionamiento a través de la reflexión sobre sus sentimientos,
pensamientos y comportamientos.

Dado que los individuos rara vez actúan por su cuenta, las teorías de la psicología social
también investigan los procesos cognitivos, motivacionales o afectivos de agencia no solo a nivel
personal sino también social. Además de la agencia personal discutida anteriormente, las personas
también pueden ejercer la agencia colectiva y por poder (Bandura, 2000). Mientras que la agencia
colectiva representa las creencias compartidas de las personas en el logro de metas a través de
esfuerzos cooperativos, la agencia de representación se promulga a través de diferentes procesos
(Bandura, 2006). La agencia de representación se refiere a un modo mediado socialmente que
involucra a otras personas o herramientas que pueden actuar en su nombre y pueden ayudar a
alguien a lograr objetivos y resultados deseables. En este sentido, la agencia de representación
implica en gran medida los esfuerzos mediadores de otros (Bandura, 2001). Finalmente, los seres
humanos recurren principalmente al control delegado para ejercer su influencia cuando carecen de
los medios desarrollados para hacerlo o cuando creen que otros pueden desempeñarse mejor (Bandura, 2002).
La agencia proxy se convierte en un lente particularmente poderoso para observar las
relaciones entre los usuarios y las herramientas. Considere el ejemplo de los teléfonos móviles.
Requieren un mantenimiento regular que requiere intervenciones humanas, como cargar las
baterías, encender/apagar y pagar las facturas. Pero los teléfonos móviles también ayudan a sus
usuarios recordándoles los próximos eventos importantes, brindándoles información sobre
problemas y, en última instancia, ayudándolos a organizar mejor sus redes sociales.
Machine Translated by Google

Agencia en la Era Digital 101

vidas. Las personas pueden “externalizar” sus preocupaciones sobre sí mismos a sus dispositivos,
lo que permite que sus teléfonos inteligentes y otros rastreadores los ayuden en sus esfuerzos
por dormir más, hacer más ejercicio o consumir menos calorías (Schüll, 2016). El concepto de
agencia de representación ayuda a enmarcar estos deseos e interacciones como una forma de
poder para rehacer y remodelar el mundo que las personas y sus herramientas se atribuyen entre sí.
Al tomar prestada la idea de simbiosis, ilustramos las formas en que los conceptos de biología
fundamental pueden ayudarnos a conceptualizar este enredo de agencia humana y tecnológica
cuando hablamos de sistemas sociotecnológicos complejos.

El concepto de agencia simbiótica


El término “simbiosis” deriva del griego y significa “vivir juntos”. Fue acuñado por primera vez por
el botánico Anton de Bary a mediados del siglo XIX, quien definió la simbiosis como “la convivencia
de diferentes especies” (Sparrow, 1978). Como Sapp (1994) lo expresó, “nosotros evolucionamos
a partir de una fusión de dos o más tipos diferentes de organismos que viven juntos y estamos
compuestos por ellos. La simbiosis está en la raíz de nuestro ser” (p. xiii). Como tal, la simbiosis
a menudo se considera un fenómeno prácticamente omnipresente que sirve como base del
desarrollo normal (Pradeu, 2011). La formación de simbiosis puede ayudar a los organismos a
aumentar su robustez y funcionalidades (Kitano y Oda, 2006) y adquirir nuevas capacidades
(Douglas, 1994).
La investigación psicológicamente informada también vio la simbiosis como un concepto
esencial y la consideró una fuerza central en la orquestación de nuestra relación con el mundo
social (Chodorow, 1989; Tissaw, 2000). En lugar de ser receptores pasivos, los individuos
participan activamente en su desarrollo social a través de relaciones simbióticas. La idea de
simbiosis se puede aplicar a la relación humano-tecnología al ilustrar el hecho de que las personas
usan tecnologías para aumentar sus capacidades o adquirir otras nuevas. Las propiedades
centrales de la agencia previamente discutidas acuñadas por Bandura (2006) pueden ayudarnos
a comprender cómo se forma la agencia simbiótica entre los usuarios y las tecnologías.

En términos de intencionalidad, cuando las personas usan sus teléfonos móviles como relojes
de alarma para despertarse por la mañana, confían en las propiedades y posibilidades de agentes
no humanos percibidas de los teléfonos móviles. La intención del usuario de despertarse a tiempo
se delega en el teléfono móvil, es decir, practica la agencia proxy. La previsión, por otro lado, nos
brinda información valiosa sobre cómo los comportamientos anticipatorios y orientados al futuro
de los usuarios pueden ser respaldados y ampliados por artefactos tecnológicos. Por ejemplo,
algunas personas utilizan regularmente rastreadores de salud u otras aplicaciones relacionadas
con la esperanza de tomar el control total de su funcionamiento biológico. Lo hacen porque les
gustaría preservar su salud o prevenir enfermedades. En otras palabras, utilizan dispositivos o
aplicaciones como extensiones temporales de sus agencias. Nuevamente, de manera similar a la
intención, los usuarios delegan la dimensión de previsión de su agencia para regular su vida, en
este caso su salud, de manera más efectiva. También utilizan artefactos tecnológicos con la
esperanza de crear coherencia y encontrar sentido a sus vidas (Neff & Nafus, 2016),
Machine Translated by Google

102 Gina Neff y Peter Nagy

pero quizás lo más importante, porque los rastreadores de salud y las aplicaciones relacionadas
son entidades interactivas. El tercer componente agente, la autorregulación (o, como lo llama
Ban dura, autorreactividad), señala los aspectos motivacionales y afectivos del uso de la
tecnología. Por ejemplo, se construyen varios dispositivos y programas para promover un
comportamiento saludable para los usuarios (p. ej., dejar de fumar o aplicaciones de alimentación
saludable), ya que estos artefactos envían retroalimentación sobre el comportamiento y el
“desempeño” de uno de manera regular, movilizando las propiedades motivacionales de la
agencia. La interacción hombre-tecnología se caracteriza tanto por las percepciones y emociones
de los usuarios como por las emociones evocadas por el diseño y las características estéticas de
los dispositivos o productos digitales (Mick & Fournier, 1998; Thüring & Mahlke, 2007). Finalmente,
con la aparición de agentes artificiales sofisticados, los usuarios obtuvieron amplias oportunidades
para reflexionar sobre casi todos los aspectos de sus vidas (por ejemplo, trabajar, aprender o
socializar). Cuando se aplican a la interacción humano-tecnología, las prácticas de autorreflexión
han sido cambiadas, moldeadas y modificadas por artefactos tecnológicos debido a las
características mediadoras de estas herramientas. Es decir, los usuarios pueden explorar los
artefactos tecnológicos social, cultural y cognitivamente para que puedan experimentar diferentes
modos de funcionamiento agencial y prácticas autorreflexivas.
Al rastrear las formas de agencia que las personas pueden tener dentro de los sistemas
tecnológicos, proponemos el término agencia simbiótica, refiriéndose a una forma específica de
agencia de representación que los usuarios y las herramientas pueden representar dentro de la
interacción entre humanos y tecnología. Argumentamos que la agencia simbiótica puede
considerarse como una forma de determinismo suave que abarca tanto cómo la tecnología media
en nuestras experiencias, percepciones y comportamiento, como cómo la agencia humana afecta
los usos de los artefactos tecnológicos. Más específicamente, proponemos que cuando los
individuos interactúan con las tecnologías, ejercen una agencia delegada a través de un modo
tecnológicamente mediado que se refiere al entrelazamiento de agencias humanas y no
humanas. Ya que la simbiosis, similar al enredo, implica una relación obligada: los simbiontes
dependen completamente unos de otros para sobrevivir, puede considerarse una relación agente-
proxy que puede proporcionar diferentes beneficios para los destinatarios.

Las diferentes formas de agencia simbiótica


Investigaciones biológicas previas también mostraron que la simbiosis es un fenómeno
complejo; los organismos pueden beneficiarse, verse perjudicados o no verse afectados por las
relaciones simbióticas (Paracer y Ahmadjian, 2000). Una asociación en la que un simbionte se
beneficia y el otro no se perjudica ni se beneficia es una simbiosis comensalística. Una asociación
en la que ambos simbiontes se benefician es una simbiosis mutualista. Una relación en la que
un simbionte recibe nutrientes a expensas de un organismo huésped es una simbiosis parasitaria.
Los límites conceptuales, sin embargo, no son claros y hay transiciones frecuentes entre las tres
formas de simbiosis (Tissaw, 2000). Las diferentes formas de simbiosis también se pueden
utilizar como lente para comprender cómo las expectativas, creencias y valores de los usuarios
pueden influir en su relación de agente de representación con las tecnologías.
Machine Translated by Google

Agencia en la Era Digital 103

Las personas tienen una tendencia general a antropomorfizar tecnologías que a menudo
están diseñadas para provocar una amplia gama de proyecciones (Darling, 2014). El “Efecto
Valle Inquietante” (Reichardt, 1978) documenta la incomodidad que sienten las personas
cuando se considera que los agentes robóticos tienen una apariencia demasiado humana,
y este efecto es aún más intenso cuando un robot en particular tiene algún tipo de
desfiguración o característica anormal (Seyama y Nagayama, 2007). Al atribuir agencia a
tecnologías complejas, como chatbots, robots u otras aplicaciones de IA, las personas
proyectan sus emociones a estas entidades y tratan de encontrar explicaciones para sus
"comportamientos" (Darling, 2014). Un estudio reciente de Neff y Nagy (2016) ya mostró
que cuando los usuarios interactúan con programas de chat o chatbots, tienden a atribuirle
“personalidad” a la técnica y proyectan una amplia gama de emociones sobre ellos, lo que a
su vez cambia la forma en que funciona el artefacto. se comunica con ellos. De manera
similar, dentro de la psicología de los medios, la teoría de las “computadoras como actores
sociales” (Nass & Moon, 2000) sostiene que los usuarios inconscientemente aplican reglas
sociales a las tecnologías e interactúan con ellas como si fueran organismos vivos. Las
formas en que los individuos abordan estas tecnologías se remontan a su tendencia general
a tratar las cosas simples como entidades autónomas e inteligentes (Shermer, 2008). Por
ejemplo, en el experimento clásico de Fritz Hei der y Marianne Simmel (1944), se pidió a los
participantes que miraran una breve animación sobre triángulos y círculos que se movían en patrones extraño
Sorprendentemente, cuando instruyeron a los sujetos para que describieran lo que vieron,
Heider y Simmel descubrieron que las personas fabricaban historias completas y detalladas
sobre las figuras geométricas que trataban como agentes y les atribuían diversos estados
emocionales y metas. Estos ejemplos muestran por qué las personas pueden ver su relación
con las tecnologías como una forma de simbiosis comensalista y tratar los dispositivos como
simples herramientas que les permiten lograr sus objetivos. Del mismo modo, los usuarios
pueden sentir que forman una relación mutualista con tecnologías, como chatbots o robots,
que al mismo tiempo los ayudan y aprenden de ellos. Finalmente, los usuarios también
pueden sentir que se están volviendo cada vez más "adictos" o "controlados por" tecnologías
debido a los atributos parásitos percibidos de estas herramientas.
La agencia simbiótica y sus diferentes formas nos muestran que la relación humano-
tecnología ya no se relaciona únicamente con la acción humana sino también con la acción
tecnológica. Nuestro concepto representa el entrelazamiento de agencias humanas y
tecnológicas. Hemos argumentado aquí que la agencia simbiótica es una expresión más
apropiada para capturar la naturaleza dinámica de la agencia humana y tecnológica en la
comunicación humano-máquina, en la que los usuarios influyen y son influenciados
simultáneamente por artefactos tecnológicos.

Las implicaciones de la agencia simbiótica para


Interacción humano-tecnología
Sobre la base de nuestra definición de trabajo de agencia, propusimos un nuevo marco
teórico para estudiar la interacción humano-tecnología. Nuestra teoría presenta la interacción
hombre-tecnología como una interacción simbiótica de humanos y
Machine Translated by Google

104 Gina Neff y Peter Nagy

agentes no humanos, desdibujando aún más la línea entre lo que los usuarios quieren
hacer y lo que las tecnologías son capaces de hacer. Al combinar conceptos de estudios
psicológicos, de comunicación y de medios, propusimos que los académicos puedan
construir una mejor teoría para estudiar tecnologías de comunicación complejas. Los
artefactos tecnológicos tienen un impacto en sus usuarios debido a sus características y
posibilidades interactivas (Nagy & Neff, 2015), y las propiedades de agencia de los
individuos dan forma a los usos de los artefactos para lograr objetivos y crear significado.
Reimaginar la agencia de esta manera lleva la creación de significado a más arenas de
la vida social y tecnológica.
La agencia simbiótica también ayuda a los académicos a captar mejor los vínculos
íntimos entre los agentes humanos y técnicos. Desde compañeros de chat artificiales,
pasando por los algoritmos comerciales de las redes sociales hasta robots de última
generación, el mundo actual está repleto de tecnologías avanzadas que son capaces de
comunicarse con los seres humanos de manera sofisticada (Guzman, 2016).
Al estudiar los sistemas sociotécnicos, la agencia simbiótica permite a los académicos ir
más allá de los términos simplistas del debate sobre el constructivismo social frente al
determinismo tecnológico, y conceptualizar mejor los encuentros entre humanos y no
humanos. Con la noción de agencia simbiótica, los académicos pueden abordar y explorar
las dimensiones dinámicas de la relación entre humanos y tecnología. Al redefinir la
interacción humano-tecnología como una forma única de agencia proxy, los teóricos de
los medios y la comunicación pueden investigar tanto las propiedades de la agencia
humana como los atributos tecnológicos de lo que significa ser un yo en red.

Expresiones de gratitud
Este material se basa en el trabajo respaldado por la Fundación Nacional de Ciencias
bajo la Subvención No. 1516684.

Referencias

Bálsamo, A. (2011). Género de la imaginación tecnológica. Durham, Carolina del Norte: Universidad de Duke
Presionar.

Bandura, A. (1989). La agencia humana en la teoría cognitiva social. Psicólogo estadounidense, 44(9),
1175-1184.
Bandura, A. (2000). Ejercicio de la agencia humana a través de la eficacia colectiva. Direcciones actuales
en Ciencias Psicológicas, 9(3), 75–78.
Bandura, A. (2001). Teoría cognitiva social: una perspectiva agentiva. Revisión anual de Psy
cología, 52, 1–26.
Bandura, A. (2002). Creciente primacía de la agencia humana en la adaptación y el cambio en el
era electrónica. Psicólogo europeo, 7(1), 2–16.
Machine Translated by Google

Agencia en la Era Digital 105

Bandura, A. (2006). Hacia una psicología de la agencia humana. Perspectives on Psychological Science, 1(2), 164–180.

Campbell, KK (2005). Agencia: Promiscuo y proteico. Comunicación y estudios críticos/ culturales, 2(1), 1–19.

Castón, J. (2011). La agencia como idea psicoanalítica. Revista de la Asociación Psicoanalítica Estadounidense, 59(5),
907–938.
Chodorow, Nueva Jersey (1989). Feminismo y Teoría Psicoanalítica. Londres: Prensa de la Universidad de Yale.
Cooren, F. (2010). Acción y agencia en diálogo: Pasión, encarnación y ventriloquia. Filadelfia: John Benjamins.

Cariño, K. (2014). Ampliación de la protección legal a los robots sociales: los efectos del antropomorfismo, la empatía y el
comportamiento violento hacia los objetos robóticos. En R. Calo, M. Froomkin e I. Kerr (Eds.), Robot law (págs. 212–
232). Camberley, Reino Unido: Edward Elgar.
Dar, V. (2016). El futuro de la inteligencia artificial. Grandes datos, 4(1), 5–9.
Douglas, AE (1994). Interacciones simbióticas. Oxford: Prensa de la Universidad de Oxford.
Feenberg, A. (1999). Cuestionando la tecnología. Nueva York: Routledge.
Finn, E. (2017). Lo que quieren los algoritmos: imaginación en la era de la computación. Cambridge, MA:
Prensa del MIT.

Foss, SK, Waters, WJC y Armada, BJ (2007). Hacia una teoría de la orientación agentiva: retórica y agencia en Run Lola
Run. Teoría de la comunicación, 17(3), 205–230.
Giddens, A. (1979). Problemas centrales de la teoría social: acción, estructura y contradicción en la
análisis. Londres: Macmillan.
Gillespie, T. (2006). Diseñado para “frustrar efectivamente”: derechos de autor, tecnología y agencia
de usuarios Nuevos medios y sociedad, 8(4), 651–669.
Grossberg, L. (1997). Traerlo todo de vuelta a casa: Ensayos sobre estudios culturales. Durham, Carolina del Norte: Duque
Prensa Universitaria.
Guzmán, A. (2016). Los mensajes de las máquinas mudas: Comunicación hombre-máquina con tecnologías industriales.
Comunicación +1, 5, Artículo 4. http://scholarworks. umass.edu/cgi/viewcontent.cgi?article=1054&context=cpo.

Hannemyr, G. (2003). Internet como hipérbole: un examen crítico de las tasas de adopción.
La Sociedad de la Información, 19(2), 111–121.
Heider, F. y Simmel, M. (1944). Un estudio experimental del comportamiento aparente. El americano
Revista de Psicología, 57, 244–259.
Jansen, T. (2016). ¿Quién esta hablando? Algunas observaciones sobre la agencia no humana en la comunicación.
Teoría de la comunicación, 26(3), 255–272.
Jenkins, AH (2008). Agencia psicológica: un concepto necesariamente humano. En R. Frie (Ed.), Agencia psicológica:
teoría, práctica y cultura (págs. 177–200). Cambridge, MA: MIT Press.
Kitano, H. y Oda, K. (2006). Simbiosis autoextensible: un mecanismo para aumentar
solidez a través de la evolución. Teoría biológica, 1(1), 61–66.
Latour, B. (1999). La esperanza de Pandora: Ensayos sobre la realidad de los estudios científicos. Cambridge, MA: Har
Vard University Press.
Leonardo, PM (2011). Cuando las rutinas flexibles se encuentran con tecnologías flexibles: Asequibilidad, restricción y la
imbricación de agencias humanas y materiales. MIS Quarterly, 35(1), 147–167.

Leonardi, PM y Cebada, SR (2008). Materialidad y cambio: Desafíos para construir una mejor teoría sobre tecnología y
organización. Información y Organización, 18(3), 159–176.
Machine Translated by Google

106 Gina Neff y Peter Nagy

Lien, T. (2017). ¿Deprimido pero no puede ver a un terapeuta? Este chatbot podría ayudar. www. latimes.com/business/
technology/la-fi-tn-woebot-20170823-htmlstory. html?utm_campaign=KHN%3A%20First%20Edition&utm_source=hs_
email&utm_medium=email&utm_content=55559892&_hsenc=p2ANqtz-8OaM
wjlJ3xD6NliosxXQXAwYWuYGCObgZbgysXOFjQlewbzhp8yJ3ueYtP2XlQu1N
ZDEFj7LyuTD6A9FBLTI_YcBCm0w&_hsmi=55559892

Lievrouw, L. (2013). Materialidad y medios en los estudios de comunicación y tecnología: un proyecto inacabado. En T.
Gillespie, P. Boczkowski y K. Foot (Eds.), Tecnologías de los medios: ensayos sobre comunicación, materialidad y
sociedad (págs. 21–52). Cambridge, MA: MIT Press.

Mick, DG y Fournier, S. (1998). Paradojas de la tecnología: conocimiento del consumidor, emociones y estrategias de
afrontamiento. Revista de Investigación del Consumidor, 25(2), 123–143.
Nagy, P. y Neff, G. (2015). Prestaciones imaginadas: reconstrucción de una palabra clave para la teoría de la
comunicación. Redes Sociales + Sociedad. http://sms.sagepub.com/content/ 1/2/2056305115603385.full

Nass, C. y Luna, Y. (2000). Máquinas y sin sentido: Respuestas sociales a las computadoras.
Revista de Asuntos Sociales, 56(1), 81–103.
Neff, G. y Nafus, D. (2016). Auto-seguimiento. Cambridge, MA: MIT Press.
Neff, G. y Nagy, P. (2016). Hablando con bots: agencia simbiótica y el caso de Tay. interna
Revista Nacional de Comunicación, 10, 4915–4931.
Orlikowski, WJ (2005). Obras materiales: explorando el enredo situado de la performatividad tecnológica y la agencia
humana. Revista escandinava de sistemas de información, 17(1), 183–186.

Paracer, S. y Ahmadjian, V. (2000). Simbiosis: una introducción a las asociaciones biológicas. Oxford: Prensa de la
Universidad de Oxford.
Pickering, A. (1995). La destrucción de la práctica: tiempo, agencia y ciencia. Chicago: Universidad de
Prensa de Chicago.
Pradeu, T. (2011). Un yo mixto: El papel de la simbiosis en el desarrollo. Teoría biológica, 6,
80–88.

Reichardt, J. (1978). Robots: realidad, ficción y predicción. Londres: Thames & Hudson.
Rod, J. y Kera D. (2010). De la agencia y la subjetividad al animismo: el enfoque de los estudios fenomenológicos y de
ciencia y tecnología (CTS) para el diseño de grandes sistemas tecnosociales. Creatividad digital, 21(1), 70–76.

Sapp, J. (1994). Evolución por asociación: una historia de simbiosis. Oxford: Universidad de Oxford
Presionar.

Schull, N. (2016). Datos para toda la vida: Tecnología usable y diseño de autocuidado. biosociedades,
11(3), 317–333. doi: 10.1057/biosoc.2015.47
Seyama, J. y Nagayama, RS (2007). El valle inquietante: efecto del realismo en la impresión de rostros humanos
artificiales. Presencia, 16(4), 337–351.
Shermer, M. (2008). Patternicidad: encontrar patrones significativos en el ruido sin sentido: por qué el cerebro cree que
algo es real cuando no lo es. www.scientificamerican.com/article/patternicity-finding-meaningful-patterns/

Siles, I. y Boczkowski, P. (2012). En la intersección de contenido y materialidad: una perspectiva de material de texto
sobre el uso de tecnologías de medios. Teoría de la comunicación, 22(3), 227–249.

Gorrión, FK (1978). Profesor Antón de Bary. Micología, 70, 222–252.


Machine Translated by Google

Agencia en la Era Digital 107

Thüring, M. y Mahlke, S. (2007). Usabilidad, estética y emociones en humano-tecnología


interacción. Revista Internacional de Psicología, 42(4), 253–264.
Tissaw, MA (2000). Simbiosis psicológica: consideraciones personalistas y construccionistas.
Teoría y Psicología, 10(6), 847–876.
Wang, Y. (2008). Agencia: La escisión interna de la estructura. Foro Sociológico, 23(3), 481–502.
Machine Translated by Google

9
EL YO INMERSIVO DE LA RV:
DESEMPEÑO, ENCARNACIÓN
Y PRESENCIA EN
REALIDAD VIRTUAL INMERSIVA
AMBIENTES

Raz Schwartz y William Steptoe

Eran alrededor de las 10:30 a.m. cuando recibí un mensaje de Will que decía: “¿Qué estás
haciendo en esta hora del almuerzo? Vamos a ver la nueva demostración de Oculus”. Una
hora más tarde estaba dentro de una sala de demostración oscura poniéndome un auricular
Rift y sosteniendo un par de controladores táctiles. Unos segundos más tarde estaba en
ToyBox, una experiencia de realidad virtual social que facilita interacciones 1:1 en realidad
virtual inmersiva. Vi un avatar frente a mí saludando y luego escuché la voz que salía de la
boca del avatar. Las primeras palabras fueron: “Hola Raz, ¡¿qué genial es esto?!” Fue Will.
Miré hacia abajo y vi una representación gráfica de mis manos que coincidía con el movimiento
físico de mi mano. Moví mis manos y observé con qué precisión se movían las manos del avatar.
Le devolví el saludo y le di a Will un pulgar hacia arriba. "Sí, esto es bastante bueno". Will
luego se acercó a una raqueta de ping-pong virtual y me la entregó. Muy pronto estábamos
jugando al ping-pong en VR. Y aunque Will estaba en un lugar completamente diferente, sentí
que estábamos juntos en esa sala de ToyBox.
Tanto el avatar de Will como el mío eran rudimentarios, pero incluso con estos cuerpos
gráficos de baja fidelidad, nuestros avatares facilitaban una representación del yo que era
fundamentalmente diferente a otros avatares en línea. La combinación de un alto sentido de
propiedad del cuerpo con el sentido de presencia (Slater, 2009) dio como resultado esta
investigación sobre las características únicas que construyen el “Yo VR inmersivo” y la
contribución que tiene al sentido de “estar ahí”.
Con el desarrollo de la tecnología y la creciente difusión de los cascos de realidad virtual,
vemos una oferta cada vez mayor de aplicaciones de realidad virtual inmersivas que facilitan
las interacciones sociales. Aplicaciones que van desde juegos multijugador (como Star Trek:
Bridge Crew y Lone Echo) hasta eventos de transmisión en vivo (Bill Nye the Science Guy en
Alt Space y deportes en vivo en NextVR) y salas de chat generales como Oculus Rooms y
Facebook Spaces utilizan Avatares de realidad virtual como parte fundamental de la experiencia.
En cada una de estas aplicaciones, a un usuario se le asigna un avatar de plataforma (un
Machine Translated by Google

El yo inmersivo VR 109

avatar que crearon de antemano y que se puede usar en todas las aplicaciones) o se les presenta
una opción de editor de avatar a nivel de aplicación que les permite personalizar su apariencia.

Los avatares en entornos de RV inmersivos son diferentes. Antes de los sistemas de realidad
virtual inmersivos, como los mundos virtuales no inmersivos, el control de los avatares
generalmente usaba dispositivos de entrada indirecta, como un mouse y un teclado, y por lo tanto
no reflejaba las acciones corporales de un usuario inmerso. Con los sistemas de RV inmersivos,
los movimientos del cuerpo y la señal que emiten se traducen inmediatamente a un entorno de
RV con el objetivo de imitar y crear patrones idénticos de acciones físicas en línea.
En consecuencia, el sentido propioceptivo del participante coincide con el de los movimientos del
cuerpo virtual.
El objetivo de este trabajo es proporcionar un marco conceptual de esta construcción única
de un yo en línea. Detallamos las diferencias entre inmersivo y no

Entornos inmersivos de realidad virtual, estudio de trabajos académicos relacionados existentes


que abordan la presentación de uno mismo en redes en línea, así como experimentos que
examinaron la ilusión corporal que facilitan los sistemas inmersivos de realidad virtual. Finalmente,
acuñamos el término “Yo VR Inmersivo”, definimos sus características especiales y su relación
con el concepto de presencia.

Fondo
Los entornos sociales de realidad virtual no son un concepto nuevo. Desde principios de la
década de 1980 y los sistemas MUD (Multi-user Dungeons) basados en texto pioneros pero ahora
primitivos, los investigadores han estudiado y desarrollado tecnologías para apoyar la interacción
social remota en mundos virtuales en línea (Ito, 1997; Ren et al., 2007; Slater & Sánchez Vives,
2016). El auge de Internet y la tecnología de gráficos en 3D contribuyó a la popularización de
ricas comunidades virtuales en línea que atrajeron a millones de usuarios, como Second Life y
World of Warcraft. En Second Life, las personas usaban su computadora de escritorio para iniciar
sesión en una plataforma en red que albergaba un vasto mundo virtual creado por el usuario,
completo con su propia moneda y herramientas para hacer evolucionar ese mundo.
En este entorno, los usuarios pueden crear un avatar según sus gustos y comenzar una vida
digital allí mientras conocen gente, compran y venden productos y exploran nuevos lugares.

Hasta hace poco, este modo no inmersivo de interactuar con mundos virtuales ha sido la
norma. Sin embargo, en los últimos años, los sistemas de RV inmersivos que llevan al usuario al
entorno virtual con un amplio campo de visión estereoscópico y representación con perspectiva
correcta han comenzado a ganar terreno entre el público en general. Empresas como Facebook,
Oculus, HTC, Sony y Google están invirtiendo recursos en el desarrollo de hardware y software y
lanzando productos de consumo que tienen como objetivo hacer que las experiencias de realidad
virtual inmersivas sean más accesibles y asequibles.

A lo largo de los años, los profesionales de la tecnología, los investigadores y los fanáticos
del campo promovieron enérgicamente el evangelio de "Estar allí" que facilita esta tecnología (Slater
Machine Translated by Google

110 Raz Schwartz y William Steptoe

et al., 1994; Barfield et al., 1995; Ringold, 1991). Los sistemas de realidad virtual inmersivos requieren que el
usuario use un auricular rastreado que construye la sensación de presencia. Al igual que un truco de magia,
cuando una persona se pone los auriculares, esta tecnología manipula tanto sus sentidos visuales como
auditivos. Esta manipulación puede crear una experiencia que podría teletransportarlos a un lugar diferente,
como un país diferente, o brindarles estímulos para que se sientan como si estuvieran en una situación diferente
con otras personas o criaturas (por ejemplo, tener un T-Rex corriendo hacia usted mientras lo hace). están
visitando el Museo de Historia Natural de Londres).

Entornos de realidad virtual inmersivos y no inmersivos


¿En qué se diferencian los sistemas de realidad virtual inmersiva, como Oculus Rift, de la realidad virtual
basada en escritorio no inmersiva? La diferencia fundamental está en la forma en que esta tecnología rastrea
el movimiento del cuerpo de un usuario y cómo sus pantallas impulsan nuestros sentidos perceptivos.
La RV inmersiva presenta imágenes estereoscópicas y de amplio campo de visión con perspectiva correcta
que, junto con audio espacializado, imitan más de cerca los estímulos sensoriales visuales y auditivos naturales
y egocéntricos a través de los cuales los humanos perciben el mundo físico. Lo hace mediante el seguimiento
del movimiento del cuerpo del usuario, incluido el movimiento de la mano, en tiempo real. Por lo tanto, se
pueden realizar acciones sensoriomotoras naturales para explorar, moverse y experimentar el entorno virtual.
Esto en particular es lo que da lugar a la sensación de “estar ahí”, ya que si percibes el mundo como percibes
el mundo real, entonces la hipótesis de percepción más simple para el cerebro es “aquí es donde estoy” (aunque
sé que no es verdad). Es una ilusión, pero como otras ilusiones, saber que es una ilusión no hace que
desaparezca.

Los sistemas de realidad virtual no inmersivos no rastrean directamente el movimiento del cuerpo y, por lo
tanto, deben depender de interfaces indirectas, como el teclado y el mouse, para capturar la entrada del usuario.
Además, las pantallas no rodean al usuario y, por lo tanto, solo pueden presentar una ventana estrecha en el
entorno virtual.
Desde el aspecto visual, para navegar en un entorno virtual no inmersivo (VE) como Second Life, el usuario
se sienta frente a una pantalla de computadora estándar y usa un mouse o teclado para mirar alrededor.
Además de la ventana estrecha, la vista común en Second Life y otros mundos virtuales no proviene de los ojos
del usuario, sino de la proximidad del avatar que incluye un área más grande del entorno (aunque algunos
mundos virtuales permiten una vista en primera persona). , estos generalmente no son los predeterminados).
Como se indicó anteriormente, un sistema de realidad virtual inmersivo proporciona imágenes tridimensionales
ricas, un amplio campo de visión con seguimiento de la cabeza y controladores que imitan los gestos de las
manos.

En la realidad virtual inmersiva, la retroalimentación de audio se espacializa en función de la posición de


la cabeza del usuario en relación con la fuente de audio virtual. Por ejemplo, volviendo al escenario del T-Rex,
cuando el dinosaurio está lejos, el sonido de su rugido y respiración es mucho más silencioso que cuando se
cierne sobre mí. El audio espacializado también existe en los VE no inmersivos, pero la combinación de audio
espacializado, seguimiento de la cabeza y visualización visual inmersiva es lo que hace que los estímulos de
audio se sientan convincentes y reales.
Machine Translated by Google

El yo inmersivo VR 111

Finalmente, los gestos con la cabeza y las manos en la realidad virtual inmersiva se controlan
directamente a partir del movimiento corporal rastreado. A diferencia de la realidad virtual no inmersiva,
el movimiento rastreado en tiempo real de los usuarios se mapea directamente en su avatar virtual. De
esta forma, cuando un usuario asiente con la cabeza o saluda, su avatar replica el mismo movimiento
con un mapeo directo.
En resumen, la combinación del seguimiento de la cabeza para impulsar el campo de visión
egocéntrico, estereoscópico y amplio en el VE, la entrada basada en gestos y el audio espacializado
presenta una experiencia que diferencia la RV inmersiva de la no inmersiva. La RV inmersiva puede dar
como resultado la sensación perceptiva de presencia, que se define mejor como la respuesta psicológica
de un usuario a los patrones de estímulos sensoriales, lo que hace que el usuario tenga la ilusión de
"estar allí", en un espacio generado por computadora (Slater et al., 1994).

Estudiando el Yo en Realidad Virtual Inmersiva


La investigación existente sobre la presentación de uno mismo en la realidad virtual inmersiva ha
analizado principalmente las cuestiones tecnológicas y basadas en la interacción que involucran el
diseño y el comportamiento de los avatares. Sin embargo, es difícil pensar en la presentación de uno
mismo en la RV inmersiva sin subestimar el panorama más amplio de la investigación científica sobre la
presentación del yo en línea.
Hoy es casi un cliché citar el trabajo fundamental de Goffman sobre la comprensión de la presentación
del yo en cada vida diaria (Goffman, 1959). Como era de esperar, los conceptos de Goffman de
frontstage y backstage durante la actuación de uno mismo en las interacciones sociales que sirven a la
necesidad de controlar las impresiones también se pueden aplicar a la realidad virtual inmersiva donde
las personas interactúan en línea usando sus avatares (Schroeder, 2002).

La investigación académica sobre la presentación del yo y el papel de los avatares en las obras
virtuales en línea se ha llevado a cabo durante décadas. Desde los primeros trabajos que analizaban la
construcción y reconstrucción de la identidad y las opciones para tener múltiples identidades (Turkle,
1994), hasta estudios sobre la flexión de género y cómo y por qué las personas personalizan su avatar
en juegos multijugador en línea (Ducheneaut et al., 2009; Yee et al., 2011).

Experimentarse a sí mismo en un entorno virtual puede suceder ya sea con tecnología que recree
nuestros cuerpos reales del mundo físico o construyéndolos artificialmente (Biocca, 1997; Mantovani,
1995). De cualquier manera, no importa si un usuario ha configurado su avatar para que se parezca a su
yo físico o a un alter-yo imaginado, completamente diferente, la autoidentificación con su representación
de realidad virtual juega un papel importante en el sentimiento de una existencia de un yo virtual y una
encarnación (Lee, 2004).

Como se definió anteriormente, la encarnación se relaciona con una combinación de sensaciones


que aparecen junto con estar, tener y controlar un cuerpo virtual (Kilteni et al., 2012). La investigación
académica sobre esta idea se lleva a cabo desde hace varias décadas y trata principalmente de
comprender cuáles son los
Machine Translated by Google

112 Raz Schwartz y William Steptoe

condiciones que construyen el sentido de encarnación y cuáles son las diferentes formas en que
estas condiciones se unen.
Más específicamente, al estudiar la encarnación en las interacciones sociales en VR, los
investigadores sugirieron la idea de la Interacción Social Transformada (TSI), que define tres
dimensiones que pueden diferenciar la representación en línea del yo de una representación
física: autorrepresentación, habilidades sensoriales y contexto situacional (Bailenson et al., 2008).
Por ejemplo, los investigadores hicieron que los participantes usaran cuerpos de diferentes
colores (blanco y negro) para evaluar cuestiones como el sesgo racial (Banakou et al., 2016). En
este trabajo, se diseñó un experimento para examinar si la ilusión perceptual de propiedad del
cuerpo reducía el sesgo implícito. Los resultados de esta investigación muestran que el sesgo
implícito disminuyó después de pasar por el experimento y, en particular, solo para los
participantes blancos en el cuerpo negro.
En otro proyecto, los investigadores realizaron experimentos que demostraron la existencia
de un “Efecto Proteus”, que describe cómo el comportamiento de una persona se alinea con el
diseño de su avatar (Yee y Bailenson, 2007). Esta investigación encontró que cuando a los
participantes se les asignaban avatares atractivos y altos, se comportaban de manera diferente.
Más específicamente, la investigación realizó dos experimentos, el primer estudio asignó avatares
atractivos a los participantes y, como resultado, mostró que las personas participaban en
conversaciones más íntimas y a una distancia más cercana que las personas que usaban
avatares menos atractivos. En el segundo estudio, las personas a las que se les dio un avatar
más alto tenían más confianza en las negociaciones que las personas con avatares más bajos.
Un estudio de seguimiento analizó los efectos de preparación de los avatares y descubrió que la
apariencia de los avatares preparaba sus pensamientos e ideas (Peña et al., 2009).
Otro trabajo seminal en el campo de la propiedad del cuerpo en la RV inmersiva reprodujo
la ilusión de la mano de goma y mostró que la percepción de las personas de su cuerpo virtual
como su cuerpo físico es factible (Slater et al., 2008, 2009). Usando una serie de experimentos
que incluyeron la proyección de un brazo virtual y el uso de un guante de datos y una interfaz
cerebro-computadora (BCI), los resultados sugirieron que las extremidades y los cuerpos virtuales
en la realidad virtual pueden tener un fuerte sentido de propiedad.
El final de este resumen de investigación describe un proyecto sobre colas virtuales en
avatares (Steptoe et al., 2013). En este experimento, los participantes tenían un avatar realzado
por una cola que se movía. Un grupo de participantes tenía una cola que se movía al azar y el
otro grupo podría aprender a controlar la cola con el movimiento de la cadera. Los investigadores
encontraron que las personas que estaban en el grupo que podía controlar la cola tenían un
mayor nivel de propiedad del cuerpo y respondían a las amenazas a su cola virtual con más
fuerza que aquellos cuya cola se movía al azar.

Discusión
Como podemos ver, la investigación mencionada anteriormente en realidad virtual inmersiva se
centró en cómo las personas perciben y ven su propio avatar, así como los efectos derivados de
los avatares en su propio comportamiento físico. Esta investigación anterior ejemplifica cómo
Machine Translated by Google

El yo inmersivo VR 113

muchos conceptos del mundo físico se traducen directamente en entornos de realidad virtual
inmersivos. Las ideas en torno a la actuación, el sentido del yo y la encarnación se desarrollan de
manera similar y dan como resultado percepciones y acciones que construyen la noción de
presencia.
En este capítulo, sin embargo, nos gustaría ver una parte más matizada de lo que apoya la idea
de presencia. Esta es la construcción del yo en los sistemas de RV inmersivos y cuáles son sus
características únicas. Como Slater articula claramente, la presencia se construye mediante Place
Illusion (PI) y Plausibility Illusion (PSI) (Slater, 2009). Place Illusion crea la sensación de estar en un
lugar real, mientras que la ilusión de plausibilidad crea la creencia de que la situación que las
personas están experimentando realmente está ocurriendo. Más específicamente, Slater ve el
cuerpo como "un punto focal donde se fusionan PI y PSI". Con lo que quiere decir, mirar hacia abajo
y ver la representación gráfica de tus manos o cuerpo te hace sentir como si estuvieras allí (PI). Pero
el hecho de que este cuerpo virtual también se mueva y responda de cierta manera lógica apoya la
ilusión de plausibilidad.

En este punto, nos gustaría considerar no solo la presencia real y el movimiento del cuerpo
como parte de los factores que contribuyen a la presencia, sino también el sentido del yo que se
crea en esa situación. Al igual que las características anteriores de la presentación del yo en línea,
el yo de RV inmersivo tiene las mismas características, pero también incorpora tres factores
adicionales que lo distinguen de la presentación anterior del yo en línea:


Visual: representación visual correcta en perspectiva. •
Audio: sonidos espacializados. • Movimiento: gestos del cuerpo
físico.

Estos tres elementos contribuyen al sentido mejorado de sí mismo que se promulga en

entornos virtuales inmersivos. Se puede describir como se muestra en la Figura 9.1.


Es importante señalar que la Figura 9.1 describe la percepción de los avatares en la realidad
virtual inmersiva desde el punto de vista del espectador. Es decir, estos factores entran en juego
cuando vemos otro avatar frente a nosotros (o nuestro propio avatar en un espejo).
Cuando estas tres dimensiones funcionan como un todo en un entorno de realidad virtual inmersivo,
construyen lo que percibimos como una representación de una persona. En otras palabras, la Figura
9.1 representa las señales observables que construyen el yo de RV inmersivo, cada parte está
conectada y afectada por las demás para crear la presentación de uno mismo.

Visual. En primer lugar, la representación visual del yo. El hecho de que la RV inmersiva
proporcione una vista tridimensional y espacial del entorno opera tanto en la percepción de mi
cuerpo como en la presencia de otras personas. En varios sistemas de RV inmersivos, cuando un
usuario mira hacia abajo, ve una representación de su propio cuerpo y manos.
Al mirar a otros avatares, su cuerpo ocupa un espacio volumétrico como en el mundo físico. Esta
representación visual de mi cuerpo personal y de otros es la primera parte del triángulo. Esta parte
se ve afectada por las otras dos partes: la
Machine Translated by Google

114 Raz Schwartz y William Steptoe

FIGURA 9.1 Las tres dimensiones distinguidas del yo VR inmersivo

los movimientos del cuerpo se basan en los gestos físicos de las personas y, en algunos casos, la
animación de la boca se basa en el habla del usuario.

Audio. El audio es otra parte crucial de la presentación de uno mismo en la RV inmersiva. El canal de
voz que alimenta a los avatares es una transmisión de audio en vivo de la conversación en vivo de la
persona. De esta manera, la voz de la persona es representada por el avatar. Esto brinda a los usuarios la
opción de escuchar la voz de la persona detrás del avatar y sus expresiones no verbales. Esta parte se ve
afectada por la presentación visual ya que el audio está espacializado: si la presentación visual y de
movimiento es de un avatar que está lejos o un avatar que mira a la derecha o a la izquierda, el audio se
escuchará correspondientemente como lejano o próximo. de uno de los lados en consecuencia.

Movimienot. La parte final de la Figura 9.1 incluye movimiento y gestos; los datos de movimiento se
traducen a partir de las acciones físicas de la persona. Por ejemplo, si una persona saluda con la mano o
señala una dirección con el dedo, su avatar crea una acción similar en el entorno de realidad virtual.

El sentido de uno mismo se logra cuando estos tres factores trabajan en conjunto. Por lo tanto,

Immersive VR Self retrata estas características únicas que combinan señales visuales, de audio y de
movimiento del mundo físico para construir una representación encarnada en un entorno en línea. Todavía
se puede lograr un nivel de autopresentación con solo uno o dos de estos, pero cuantas más señales
pueda realizar el avatar, mayor será el sentido de presencia y de uno mismo.

Como mostramos en este capítulo, las señales físicas observables que a su vez se traducen en
señales gráficas en el entorno de realidad virtual crean una representación única del yo que es diferente
de otros ejemplos en línea. Los avatares en entornos de realidad virtual inmersivos imitan señales físicas
con una fidelidad que no existía antes.
A diferencia de los lugares anteriores de interacción social en línea, es más difícil fingir el comportamiento
del avatar en la realidad virtual inmersiva. En muchos casos el movimiento de la cabeza así como otros
gestos corporales reaccionan de forma natural a diversos estímulos y estas reacciones se reflejan
instantáneamente en la red.
Si volvemos a la definición de presencia (Slater, 2009), argumentamos que el yo VR inmersivo es parte
de la ilusión que sustenta la sensación de estar allí.
Machine Translated by Google

El yo inmersivo VR 115

Junto con el cuerpo, el lugar y la plausibilidad del escenario, el desempeño de la persona y la percepción
del sentido de sí mismo construye la experiencia del entorno inmersivo de RV. Hasta ahora, la mayoría
de los esfuerzos de investigación académica anteriores prestaron poca atención a la teoría de la
autopresentación y cómo se manifiesta en la realidad virtual inmersiva. Nuestro capítulo sugiere que, al
estudiar la “Presencia”, además de observar las perspectivas técnicas del lugar, las acciones y el cuerpo,
debemos tener en cuenta el desempeño y la percepción del yo.

Conclusión
En este capítulo, examinamos la presentación del yo en entornos de RV inmersivos.
Primero, describimos la diferencia entre un sistema inmersivo y no inmersivo y luego examinamos la
investigación académica que estudia diferentes perspectivas de encarnación y sentido de presencia en la
RV inmersiva. Finalmente, proponemos la noción del “yo inmersivo de RV” e identificamos los tres
factores que lo convierten en una construcción única de autopresentación en línea.

El trabajo futuro en este campo debería ampliar la investigación de esta presentación del yo. Por
ejemplo, el papel de la fluidez de los escenarios en los que experimentamos los avatares es un tema
interesante de entender. De esta manera, ser el mismo avatar en diferentes contextos podría replicar
nociones similares de colapso del contexto que ya vimos aparecer en las redes sociales en línea (Hogan,
2010).
Como nos encontramos en las primeras etapas de los sistemas de realidad virtual convencionales,
en los próximos años veremos una adopción y un uso cada vez mayores de estos auriculares y, como
resultado, un aumento de los lugares en los que actuará el yo inmersivo de realidad virtual. Estudiar y
comprender las fuerzas sociológicas que impulsan la encarnación y el sentido del yo en la realidad virtual
puede ayudar a los investigadores a examinar más a fondo las dinámicas de comportamiento e interacción
grupal, así como informar a los desarrolladores y profesionales que diseñan entornos de realidad virtual
inmersivos que aprovechan las fortalezas de esta forma de encarnación.

Referencias
Bailenson, JN, Yee, N., Blascovich, J. y Guadagno, RE (2008). La interacción social transformada en
comunicación interpersonal mediada. Comunicación interpersonal mediada, 6, 77–99.

Banakou, D., Hanumanthu, PD y Slater, M. (2016). La encarnación virtual de personas blancas en un


cuerpo virtual negro conduce a una reducción sostenida de su sesgo racial implícito. Frontiers in
Human Neuroscience, 10, 601. doi: 10.3389/fnhum.2016.00601 Barfield, W., Zelter, D., Sheridan, T.
y Slater, M. (1995). Presencia y rendimiento en entornos virtuales. En W. Barfield & TA Furness (Eds.),
Entornos virtuales y diseño de interfaz avanzado (págs. 473–513). Oxford: Prensa de la Universidad
de Oxford.
Biocca, F. (1997). El dilema del cyborg: encarnación progresiva en entornos virtuales.
Revista de comunicación mediada por computadora, 3 (2), 1–31.
Ducheneaut, N., Wen, M.-H., Yee, N. y Wadley, G. (2009). Cuerpo y mente: un estudio de personalización
de avatares en tres mundos virtuales. Actas de la 27ª conferencia internacional sobre factores
humanos en sistemas informáticos (págs. 1151–1160). Nueva York: ACM.
Machine Translated by Google

116 Raz Schwartz y William Steptoe

Goffman, E. (1959). La presentación del yo en la vida cotidiana, edición Anchor Books. Garden City,
Nueva York: Doubleday. https://search.library.wisc.edu/catalog/999467804702121 Hogan, B. (2010).
La presentación de uno mismo en la era de las redes sociales: Distinguir actuaciones y exhibiciones en
línea. Boletín de Ciencia, Tecnología y Sociedad, 30(6), 377–386.
Ito, M. (1997). Virtualmente encarnado: La realidad de la fantasía en una mazmorra multiusuario. en d
Porter (Ed.), Cultura de Internet (págs. 87–109). Routledge.
Kilteni, K., Groten, R. y Slater, M. (2012) El sentido de encarnación en la realidad virtual. Presencia:
Teleoperadores y entornos virtuales, 21, 373–387.
Lee, KM (2004). Presencia, explicado. Teoría de la comunicación, 14(1), 27–50.
Mantovani, G. (1995). La realidad virtual como entorno de comunicación: alucinación consensuada,
ficción y yos posibles. Relaciones humanas, 48(6), 669–683.
Peña, J., Hancock, JT y Merola, NA (2009). Los efectos primarios de los avatares en escenarios virtuales.
Investigación en comunicación, 36(6), 838–856. https://doi.org/10.1177/0093650209346802.
Ren, Y., Kraut, R. y Kiesler, S. (2007). Aplicación de la teoría común de la identidad y del vínculo a
Diseño de comunidades en línea. Estudios de organización, 28(3), 377–408.
Rheingold, H. (1991). Realidad virtual: Explorando las valientes nuevas tecnologías. Nueva York: Simón
& Schuster.
Schroeder, R. (2002). Interacción social en entornos virtuales: cuestiones clave, temas comunes y un
marco para la investigación. En La vida social de los avatares: presencia e interacción en entornos
virtuales compartidos (págs. 1–18). Londres: Springer.
Slater, M. (2009). La ilusión y la plausibilidad del lugar pueden conducir a un comportamiento realista en
entornos virtuales inmersivos. Transacciones filosóficas de la Royal Society B: Ciencias biológicas,
364 (1535), 3549–3557. doi: 10.1098/rstb.2009.0138
Slater, M. y Sánchez-Vives, MV (2016). Mejorar nuestras vidas con la realidad virtual inmersiva. Fronteras
en Robótica e IA, 3, 74.
Slater, M., Usoh, M. y Steed, A. (1994). Profundidad de presencia en entornos virtuales. Presencia:
Teleoperadores y entornos virtuales, 3(2), 130–144.
Slater, M., Pérez-Marcos, D., Ehrsson, HH y Sánchez-Vives, MV (2008). Hacia un cuerpo digital: La ilusión
del brazo virtual. Fronteras en neurociencia humana, 2, 6. doi: 10.3389/ neuro.09.006.2008

Slater, M., Pérez-Marcos, D., Ehrsson, HH y Sánchez-Vives, MV (2009). Inducir la propiedad ilusoria de
un cuerpo virtual. Fronteras en Neurociencia, 3(2), 214–220. doi: 10.3389/ neuro.01.029.2009

Steptoe, W., Steed, A. y Slater, M. (2013). Colas humanas: propiedad y control de avatares humanoides
extendidos. IEEE Transactions on Visualization and Computer Graphics, 19(4): 583–590.

Turkle, S. (1994). Construcciones y reconstrucciones del yo en realidad virtual: jugando en el


MUD. Mente, cultura y actividad, 1(3): 158–167.
Yee, N. y Bailenson, J. (2007). El efecto Proteus: El efecto de la auto representación transformada en el
comportamiento. Investigación sobre comunicación humana, 33(3), 271–290.
Yee, N., Ducheneaut, N., Yao, M. y Nelson, L. (2011). ¿Los hombres se curan más cuando se arrastran?:
Señales de identidad en conflicto entre el usuario y el avatar. Actas de la conferencia SIGCHI de 2011
sobre factores humanos en sistemas informáticos (págs. 773–776). Nueva York: ACM.
Machine Translated by Google

10
ESCRIBIENDO EL CUERPO DEL
PAPEL: TRES NUEVOS MATERIALISTAS
MÉTODOS PARA EXAMINAR LA
ÓRGANO DE MEDIACIÓN SOCIAL

Katie Warfield y Courtney Demone

Esta va a ser una discusión difícil, por lo que es posible que desee sentarse. ¿Puedo
tomar tu mano? Bueno…
No eres tu. Son sus métodos de investigación.

Este capítulo surgió después de tres años de trabajo en varias capacidades y con varios
proyectos que estudian cómo los jóvenes experimentan compartir imágenes de sus cuerpos en
las redes sociales. Durante los últimos tres años, he realizado entrevistas fenomenológicas con
mujeres jóvenes que se toman selfies, encuestas en línea con hombres y mujeres jóvenes que
comparten imágenes en Facebook, Instagram y Snapchat, y entrevistas y grupos focales con
personas trans y de género no conforme que comparten imágenes que representan su género a
través de imágenes en red en Tumblr. Y hay una constante en todos estos proyectos. La
constante es que los creadores de imágenes y las imágenes que producen están profunda y
afectivamente conectados. Y es realmente hermoso de escuchar. Uno de mis participantes en
el proyecto de Tumblr declaró: “Algunas personas rebloguean [selfies] si creen que te ves genial
o simplemente quieren apoyar a sus amigos. Es una forma de difundir positividad y apoyo. Se
siente bien." Otro participante dijo: “Publico mucho selfies en Tumblr… porque me ayuda a
sentirme conectado con otros usuarios como persona, y es un impulso para el ego si recibo
muchas notas, y siento que puedo ser más auténtico… en su mayoría con extraños en lugar de
personas que conozco en la vida real. También es solo parte de la cultura del sitio web”.
Courtney, la coautora de este capítulo, al escribir acerca de compartir su video de presentación
en línea de YouTube, dijo que estaba "compartiendo una parte [de sí misma]". Le pedí que
elaborara y su respuesta fue: “Era absolutamente una historia que formaba parte de mí. Este
era yo compartiendo una parte de mí mismo con personas cercanas a mí, con la intención de
traer un cambio a nuestras relaciones”. El video de YouTube era una representación visual,
también era una presentación de sí misma, pero además, y lo que es más importante, estaba
conectado
Machine Translated by Google

118 Katie Warfield y Courtney Demone

a su cuerpo y bienestar. Las imágenes socialmente mediadas de los cuerpos que los jóvenes comparten en
línea están realmente interconectadas, y no solo tecnológicamente, sino afectivamente, discursivamente y
materialmente.
En este capítulo, lo que queremos proponer es que los métodos de investigación dominantes utilizados
para estudiar las imágenes de cuerpos mediadas socialmente a menudo no tratan las imágenes de cuerpos
mediadas socialmente como estrechamente conectadas con los cuerpos de los creadores de imágenes. Es
importante tener en cuenta que no estamos diciendo que los investigadores no estén tratando los cuerpos
como si estuvieran interconectados afectivamente —abundan las maravillosas investigaciones que reconocen
esto1—, sino que lo que queremos argumentar es que los métodos de investigación en sí mismos desalientan
la idea de que los creadores de imágenes y los las imágenes que hacen están fundamentalmente entrelazadas.
Argumentamos que los métodos de investigación prevalecientes colocan y posicionan al investigador en el
exterior de la imagen y, por lo tanto, a una distancia de los tomadores de imágenes. La distancia creada por
el propio método de investigación está dando forma tanto a cómo pensamos sobre las imágenes de cuerpos
socialmente mediadas como a cómo animamos a otros investigadores a manejar las imágenes de cuerpos.
Nos basamos en las teorías feministas del nuevo materialismo para hablar sobre ensamblajes de investigación
(Ringrose & Renold, 2014; Fox & Alldred, 2014) o la disposición de los objetos en el estudio empírico y cómo
los propios métodos de investigación dan forma a cómo se presenta el fenómeno y, posteriormente, cómo
pensar en los objetos de indagación, o aquí: cuerpos mediados. Vamos a argumentar que los métodos de
investigación que alejan al investigador de los cuerpos de los creadores de imágenes también alejan nuestra
responsabilidad hacia esos cuerpos. En respuesta, vamos a sugerir que los métodos que acercan a los
investigadores al autor de la imagen y las imágenes compartidas en línea podrían proporcionar una visión
más cercana de las experiencias vividas por los autores de la imagen y una conducta de investigación más
responsable y ética. Argumentamos que cuanto más acercamos a los investigadores a la materialidad afectiva
o la cuestión de los cuerpos de los tomadores de imágenes y cómo esos cuerpos se entrelazan con las
imágenes producidas, más estos cuerpos pueden volverse importantes para el investigador.

Y así, nuestro capítulo se desarrollará de la siguiente manera: vamos a rastrear los paradigmas
dominantes que subrayan los métodos predominantes utilizados para estudiar los cuerpos socialmente
mediados para mostrar cómo los paradigmas del representacionalismo (Barad, 2007) y el presentacionalismo
crean distancia y un grado de desprecio entre creador de imágenes, imagen e investigador. Luego discutimos
cómo el nuevo materialismo, predominantemente a través del trabajo de Karen Barad, puede proporcionar
una onto-epistemología ética (Barad, 2007, p. 185) que puede reemplazar la distancia y el desprecio por la
proximidad y el respeto. Presentamos e ilustramos tres nuevos métodos de información materialista que
hemos desarrollado: 1) comer en la historia; 2) intravisión en red; y 3) leer la imagen horizontalmente para
generar proximidad entre el creador de la imagen, la imagen y el investigador. Jugamos con las palabras
meet y meat para presentar un método novedoso que involucra un proceso de coautoría que pone énfasis en
escuchar las experiencias corporales, afectivas y corporales sentidas de compartir imágenes del cuerpo en
línea. La visualización interna en red y la lectura horizontal de imágenes en red son métodos adaptados para
entornos en línea a partir de métodos existentes: visualización interna de Kuntz y Presnell (2012) y lectura de
imágenes horizontalmente desde
Machine Translated by Google

Redacción del cuerpo del artículo 119

Hultman y Taguchi (2009). Courtney y yo elaboramos cada uno de estos tres métodos con
referencia a nuestro trabajo conjunto y a las diversas imágenes que Courtney ha compartido
de sí misma en línea a través de Facebook, Instagram y YouTube.

Revisión de literatura

Nos gustaría comenzar proponiendo que dos paradigmas predominantes subrayan los métodos
de investigación utilizados para estudiar las imágenes mediadas de los cuerpos: el
representacionalismo y el presentacionalismo. Tomamos prestado el concepto de
representacionalismo de Karen Barad, quien dice que el paradigma ve las imágenes como
objetos determinados que están separados y distintos de la realidad (Barad, 2007). El
representacionalismo subrayó el tratamiento discursivo de los primeros estudios de imágenes
digitales, tratándolas como objetos determinados y distintos similares a las fotos analógicas de
la era del brownie de Kodak (Munir & Phillips, 2005; Gye, 2009), los primeros retratos como la
foto de familia (Haldrup & Larsen, 2003), y fotografía de viajes (Urry, 2007). Los primeros
análisis del ging de fotoblogs (Cohen, 2005) y los análisis de los primeros usos de teléfonos
con cámara adoptaron métodos de análisis que surgieron de la cultura visual y las tradiciones
semióticas. Estos métodos colocaban al investigador fuera de la imagen y enfocaban su
atención en la superficie de la imagen para indicar usos, temas, tendencias visuales y
significados en las prácticas de imágenes digitales (Kindberg et al., 2005; Lister, 1995). ; van
House, 2011; Frosh, 2015; Rettberg, 2014).
Presentacionalismo es un término que usamos para señalar métodos de investigación o
marcos de trabajo que sugieren que el yo compartido en línea a través de una foto o un video
es una representación teatral, una presentación calculada y, por lo tanto, diferente y, a menudo,
menos auténtico que el yo fuera de línea. Métodos de investigación o marcos que forman este
El paradigma a menudo hace referencia a los trabajos de Judith Butler o Erving Goff man, y
se han utilizado marcos de presentación para examinar: la vigilancia policial desigual de género
que ocurre en línea para dar forma a imágenes mediatizadas de cuerpos (Mar wick, 2013), la
gestión de impresiones de los bloggers de belleza en Instagram (Abidin, 2016), las imágenes
de perfil que inducen a la empatía de propietarios de pequeñas empresas subalternas en
plataformas de micropréstamos (Gajjala, 2015), las poses corporales miniaturizantes de chicas
en selfies (Warfield, 2015), poses de autopornificación en desnudos masculinos selfies (Lasén, 2014).
Ahora visualizaremos el ensamblaje de investigación de estos dos paradigmas para
observar el arreglo entre el creador de imágenes, las imágenes del cuerpo mediado y el investigador.
Si la imagen socialmente mediada del cuerpo es representacional, entonces el método de
investigación coloca al investigador fuera de la imagen. El investigador se cierne sobre él como
si fuera un objeto sobre una mesa. El fotógrafo a menudo no se considera parte de este
conjunto de investigación. La fotografía o video, como objeto, se trata como sólido, distinto y
separado de la persona que lo produjo. El representacionalismo está centrado en el
investigador, ya que son los sentidos del investigador los que son privilegiados en el proceso
de análisis y creación de significado. Los métodos de representación colocan al investigador
muy cerca de la imagen pero a una distancia del tomador de la imagen. Basándose en Karen
Barad (2007), el representacionalismo “no interrumpe la geometría que
Machine Translated by Google

120 Katie Warfield y Courtney Demone

mantiene el objeto y el sujeto a distancia” (p. 88), y aquí mantiene al creador de imágenes a un
brazo de distancia del investigador.
A continuación, veremos el conjunto de investigación para el paradigma de presentación .
Si se aborda el cuerpo mediado desde el paradigma de presentación , entonces el método y el
marco alientan a los investigadores a alternar su posición: los investigadores se mueven desde
una posición frente a la imagen, leyéndola en busca de tropos y patrones performativos, y luego, a
menudo, se mueven detrás de ella. , mirando la producción calculada de la imagen por el tomador
de imágenes. Pero en capas en esto está que los métodos y marcos de presentación suponen que
la imagen es una actuación. Cuando los investigadores están frente a la imagen, ven un escenario
con un actor, y cuando se colocan detrás de la imagen, examinan la producción calculada,
premeditada, guionizada. A través de Goffman, un investigador que adopta el presentacionalismo
ve que no existe un yo real, solo representaciones teatrales negociadas en interacción entre
campos y fuerzas socioculturales. Pero lo que también supone este paradigma es que tales
presentaciones están fuera del ámbito de lo real y, como tales, son de menor importancia o
consideración. Incluso si un investigador de medios sociales está desafiando teóricamente aspectos
de los paradigmas del representacionalismo y el presentacionalismo al adoptar inadvertidamente
métodos de investigación probados y probados utilizados para estudiar imágenes de cuerpos
mediadas socialmente, los métodos los ubican en posiciones y relaciones predecibles que
inadvertidamente refuerzan el representacionalismo y presentan. nacionalismo en los resultados.

Así que el representacionalismo crea distancia y el presentacionismo, hasta cierto punto,


desprecio. ¿Existen métodos que puedan fomentar la proximidad y el respeto? Me baso en el
nuevo materialismo para llenar el vacío de proximidad.
El giro material tiene muchos nombres y formas —posthumanismo, nuevo materialismo, giro
poscualitativo— y tiene varias similitudes teóricas centrales, pero la proximidad y las interconexiones
complejas son un componente central. Estos temas comunes incluyen: el rechazo de la división
cartesiana entre mente y cuerpo (Barad, 2007), una crítica del énfasis del giro lingüístico en el
lenguaje a expensas de la materialidad (Barad, 2007), un rechazo de la tendencia del positivismo
a simplificar y generalizar a través de relaciones lineales positivistas de causa y efecto en un
intento de organizar la complejidad natural del mundo que nos rodea (Deleuze et al., 1984), y una
crítica del papel supuestamente eliminado del investigador de sus objetos de estudio y de la
investigación. evento en sí mismo (Barad, 2007).

Dada su inclinación por la complejidad, los nuevos métodos materialistas a menudo comienzan
con unidades de análisis complejas como para Deleuze y Guattari el ensamblaje, y para Karen
Barad el fenómeno. En lugar de elegir solo la foto o solo el creador/intérprete de imágenes, los
métodos de investigación a menudo comienzan con el enredo multifacético de fuerzas materiales y
discursivas en un momento dado. Esto puede incluir una unión inseparable de cuerpos,
subjetividades y audiencias, y actores no humanos como objetos, tecnologías, espacio y lugar
(Latour, 1993). Se prefieren las metáforas de ensamblaje y enredo a las metáforas que diferencian
y delimitan una entidad dentro de un fenómeno de la otra.
Machine Translated by Google

Redacción del cuerpo del artículo 121

¿Por qué la unidad de análisis en los nuevos métodos materialistas no es distinta sino
más bien compleja? Los nuevos materialistas ven los objetos no como a priori, sino como
enredados fundacionalmente y luego emergiendo de sus enredos a través de procesos de
denominación y diferenciación (Deleuze et al., 1984). Es a través de lo que Barad (2007)
llama intra-acciones —devenir al no interactuar entre— que cosas como conceptos y objetos
(como el cuerpo, la identidad y la imagen) se definen y redefinen constantemente.
Barad introduce el concepto de corte agencial para describir el proceso por el cual los
objetos y conceptos son cortados de su estado natural, que propone es uno de enredo y
complejidad material y discursiva (Barad, 2007).
Aquí podemos ilustrar la noción del corte agencial con nuestros argumentos acerca de
cómo los métodos de investigación representacional y presentacional dan forma a nuestra
comprensión de las imágenes de los cuerpos mediadas socialmente. Debido a que las
imágenes digitales se parecen materialmente a fotografías analógicas (Munir & Phillips,
2005; Gye, 2009; Haldrup & Larsen, 2003; Urry, 2011), se han alineado discursivamente
con autorretratos de bellas artes (Frosh, 2015). Por lo tanto, los métodos de investigación
que se adoptaron al comienzo de dichos análisis leen las imágenes digitales de la misma
manera que leíamos las fotos analógicas en el pasado: evaluando la superficie de la imagen.
El problema es que esto pasa por alto el hecho de que las imágenes digitales a menudo se
producen a partir de audiencias específicas en plataformas de redes sociales específicas,
en momentos específicos para reflejar mensajes y estados de ánimo específicos, y se ven
moldeadas aún más por la limitación de las posibilidades tecnológicas y de la plataforma.
Solo un puñado de estas fuerzas influyó en la producción de fotografías en la era analógica.
Cuando tratamos discursivamente las fotos de las redes sociales como fotos analógicas,
estamos realizando un proceso de corte de agencia en el que el molde discursivo de los
métodos de investigación de fotografías analógicas se utiliza en las fotos digitales, lo que
privilegia los métodos de investigación habituales y, en el proceso, también elimina parte de
la complejidad natural. de imágenes digitales en la misma línea que se han utilizado para
tratar las fotografías analógicas. Los cortes de agencia dividen la naturaleza compleja de los
fenómenos a lo largo de líneas habituales y normativas, lo que a su vez refuerza su
tratamiento discursivo y material como similar a objetos y conceptos análogos a ellos en el
pasado.2 Los cortes de agencia también afectan la relación entre el investigador, la
imagen y creador de imágenes. Los paradigmas de representación y presentación realizan
cortes de agencia que separan la imagen del productor y orientan la mirada del investigador
hacia la imagen (representacionalismo) o influyen en cuán serio o menos serio interpretará
el investigador la imagen digital de los cuerpos en línea. En contraste con estos paradigmas,
cuando vemos los métodos de investigación a través de un nuevo paradigma materialista,
no existe tal cosa como un investigador a priori y un participante de la investigación
separados uno del otro, sino más bien un enredo ya y siempre complejo de fuerzas
materiales y discursivas que se reúne en cualquier conjunto de investigación.
Según el nuevo materialismo, no existe un espacio a priori entre investigador, imagen y
hacedor de imágenes. Todo ya está tocando. Son los propios investigadores, a través de
métodos milenarios y prácticas habituales de investigación de distanciamiento, quienes
recortan y recortan repetidamente esa proximidad, cercanía y responsabilidad para crear espacio entre
Machine Translated by Google

122 Katie Warfield y Courtney Demone

ellos mismos, las imágenes y el hacedor de imágenes. Este corte es lo que resulta en un proceso
de distanciamiento y descuento por parte de los propios investigadores de los tomadores de
imágenes de sus enredadas experiencias vividas en línea.

Tres nuevos métodos materialistas


Nos gustaría proponer que la distancia manufacturada entre creador de imágenes, imagen e
investigador creada por los paradigmas representacional y presentacional puede contraerse a
través de tres nuevas metodologías basadas en el materialismo con las que Courtney y yo jugamos
en nuestro tiempo juntos: 1) Meating in la historia; 2) intravisión en red; y 3) leer imágenes en red
horizontalmente. La integración en la historia genera proximidad entre el investigador y el creador
de imágenes, la visualización interna en red brinda proximidad entre la imagen y el creador de
imágenes, y la lectura de imágenes horizontalmente repiensa las imágenes no solo como textos
planos sino también como enredos discursivos materiales. Discutiremos cada uno de estos métodos
con referencia a Courtney y mi trabajo conjunto.

Comida en la historia
Para comprender el método de la carne en la historia, necesitamos saber un poco más sobre
Courtney y las diferentes imágenes de su cuerpo que compartió a través de las plataformas de
redes sociales. Courtney Demone es una activista trans que utilizó una serie de plataformas en
línea (YouTube, Instagram, Mashable, etc.) para salir del armario y defender los derechos de las
personas trans en línea. Compartió su video de salida del armario en YouTube en el 2015. El video
recibió apoyo positivo y comentarios transfóbicos negativos.
El video se compartió sin consentimiento en 8chan, un popular derivado de MRA de 4chan hostil
principalmente a las feministas, pero también a menudo a las personas queer y trans, así como a
las personas de color. En el mismo año, Courtney lanzó un proyecto político en Instagram en el que
publicó imágenes del lento desarrollo físico de sus senos mientras recibía terapia hormonal. Su
proyecto, ¿Tengo senos ahora?, preguntó cuándo Instagram comenzaría a censurar sus imágenes
y exigió atención a la codificación de la política de género en los procesos regulatorios en las redes
sociales. En esencia, cuando la plataforma de redes sociales finalmente decidiera que falleció, su
cuerpo sería censurado y vigilado por su género para que no se exhibiera públicamente.

Para discutir el método de meating en la historia, me enfoco en el video de salida del armario
de Courtney publicado en YouTube y cómo adaptamos los métodos narrativos existentes para las
redes sociales para acercar la imagen, el creador de la imagen y el investigador. Para escribir la
narrativa de Courtney, queríamos ir más allá de la posición de investigación de afuera hacia adentro
de los métodos de representación a través del análisis semiótico y los marcos de presentación a
través del interaccionismo social, que se han vuelto prominentes en los métodos narrativos para las
redes sociales (Georgakopoulou, 2016). Courtney y yo creamos un documento de Google
compartido en el que ella escribió una historia de fondo inicial para explicar la historia visual que
publicó en YouTube (Figura 10.1). Una vez que el primero
Machine Translated by Google

Redacción del cuerpo del artículo 123

FIGURA 10.1 Extracto de la historia de YouTube sobre compartir el cuerpo.

el borrador estaba completo, la conocí en el documento compartido en tiempo real y le pedí


que elaborara secciones de la trama, personajes, lugares, audiencias, etc. Después de
desarrollar su historia, escribí un borrador de un artículo y lo publiqué en un documento de
Google compartido para Courtney. Luego invertimos los papeles y Courtney leyó mi artículo y
lo comentó, haciendo preguntas sobre mi escritura, interpretaciones y usos de sus historias y
experiencias. Este proceso sirvió como una forma de verificación de miembros y como un
medio para acercar al investigador a la imagen y al creador de imágenes.
Luego alteré el papel para reflejar y respetar sus comentarios y preguntas.
Además, notamos que las posibilidades del googledoc compartido dentro del conjunto de
investigación eran más similares al medio de escribir en línea que si hiciéramos una entrevista
fuera de línea. Además, el aspecto en tiempo real de este modo de recopilación de datos
aseguró que pudiéramos fomentar la proximidad entre la historia, la experiencia vivida por
Courtney y mi papel como coautora e investigadora.
Por lo tanto, lo que ofrecían las posibilidades de la plataforma era lo que podríamos llamar
“verificación de miembros en vivo” dentro de la historia misma y esto fomentó una cercanía
entre el narrador, la historia y el investigador (yo).
Quiero señalar que este método de recopilación de datos, aunque novedoso, no es
diferente de algunos otros métodos que involucran la coautoría y la coescritura, particularmente
en la investigación narrativa. El método que elaboramos adopta una combinación de métodos
ya establecidos: coautoría narrativa (Saltzburg y Davis, 2010) junto con la visualización interna
en tiempo real (Kuntz y Presnell, 2012). El método se suma a los métodos de investigación
narrativa que han sido desarrollados por teóricos como Alexandra Georgakopoulou, pero los
llevó más allá de sus paradigmas representacionales y presentacionales que están presentes
en su trabajo reciente en YouTube y selfies.
Machine Translated by Google

124 Katie Warfield y Courtney Demone

en Facebook (Georgakopoulou, 2016). Este método comparte puntos en común con los
métodos feministas de investigación narrativa, que alientan a los participantes a ser
"agentes activos" para generar proximidad entre el investigador y el narrador (Fraser y
McDougall, 2017, p. 242).

Intravisualización en red
Aunque estuve atento a las tramas diferentes y entrelazadas de las historias de Courtney,
lo que más se destacó fue la presencia de la emoción, la encarnación y el afecto como
elementos centrales de su narración. En lugar de tejer una historia separada y distante de
ella misma, la historia se desarrolló muy conectada con su experiencia corporal y enredada
con fuerzas materiales y discursivas. Esto reforzó la importancia de trabajar contra la
distancia creada entre la imagen y el hacedor de imágenes por los paradigmas
representacionales y presentacionales. Como resultado, recurrí al nuevo método
materialista de intravisión, que pone un énfasis particular en el afecto y la proximidad
entre el participante y el investigador. Mientras que la tradición narrativa a menudo cae
presa de la “seducción narrativa” (Brinkmann, 2011) de las palabras y de un enfoque casi
exclusivo de los humanos en el encuentro de investigación (antropocentrismo), la
intravisión atiende a los factores humanos y no humanos. de la intravisión, así como de
las fuerzas materiales y discursivas enredadas dentro y más allá de la historia.

Kuntz y Presnell (2012) enumeran varias tácticas para la visualización interna: un


cambio del guión al sonido donde el investigador presta atención no solo a las palabras
habladas sino también a las pausas, tonos, inflexiones, fallas y errores en la conversación,
así como a la vibraciones encarnadas donde y cuando el cuerpo se retira de la
conversación, o el texto se vuelve distante y menos íntimo o igualmente próximo y cada
vez más íntimo. Adapto este método para intra-vistas en red al reconocer que en la
mensajería y el chat en línea escrito, la cinesis a menudo no es visible y, por lo tanto, las
pausas verbales a menudo toman la forma de pausas de escritura donde una persona en
la interacción se detiene en las palabras de la otra persona antes de responder. . La pausa
no significa necesariamente desacuerdo, pero es un camino para futuras preguntas (p.
ej., un investigador podría preguntar: "¿Noté una pausa allí? ¿Tenía otros pensamientos?").
También observo que la técnica intravista de vibraciones incorporadas en una conversación
hablada también puede ser más detectable ya que el investigador podría escuchar señales
como cambios en el tono de voz. Para entornos en línea, los intraespectadores pueden
estar atentos a cualidades similares: cambios en el estilo de escritura, oraciones breves o
abruptas o el uso de emoji para expresar diferentes emociones.
Las intra-visiones también prestan atención al uso de metáforas para describir
experiencias que, según Neisser (2003), son espacios creativos. Las metáforas ofrecen
un lugar para que los participantes rompan con las normas lingüísticas y tomen el lenguaje
en una línea de fuga encarnada (Deleuze et al., 1984) a través de palabras en un intento
de narrar las capas momentáneas del mundo sobre la piel. Las metáforas a menudo son
intentos de describir los encuentros afectivos del participante dentro de sus mundos. en red
Machine Translated by Google

Redacción del cuerpo del artículo 125

intra-views, la escritura en línea ya puede alentar una descripción más metafórica ya que la
persona está escribiendo en lugar de hablar. Mientras que una persona puede censurar el
deseo de usar el lenguaje poético en la palabra hablada, en la escritura, la modalidad permite
más privacidad y comodidad para jugar con esa forma de comunicación. Usé todas estas
tácticas en el proceso de visualización interna mientras me metía con Courtney en la historia
a través del googledoc compartido.

Intravisualización en red
En la siguiente sección, Courtney elabora sobre el intercambio no consentido de su historia
de salida del armario en 8chan.
Siguiendo las nuevas metodologías materialistas propuestas por Neisser (2003), me
concentro en la metáfora de “desgastarse” que se usa por primera vez para describir la
experiencia de ser acosada en línea después de que su video se compartió en plataformas de
redes sociales hostiles (Figura 10.2). Cuando le pido que se explaye sobre esas metáforas,
me proporciona una narrativa y una explicación metafórica amplia y detallada que es de
naturaleza muy corporal: dice que su cuerpo estaba desgastado, su fuerza, describe la
experiencia como una tortura de agua y gotas lentas sobre su frente El impacto emocional de
compartir en línea las imágenes de su cuerpo fue profundamente físico, psicológico y
emocional. Este tipo de evaluación no podría lograrse si el investigador ocupase una posición
desde el exterior de la imagen. Solo cuando el investigador se acerca a la escritura y al
escritor, se revela este tipo de datos.

FIGURA 10.2 Extracto de metáforas.


Machine Translated by Google

126 Katie Warfield y Courtney Demone

También observamos varios momentos de atención a las vibraciones incorporadas durante


el proceso de intra-vista realizado en el googledoc. Utilicé esto como una oportunidad para
preguntar más. También lo usé ocasionalmente como una oportunidad para darle tiempo para pensar.
En una ocasión interpreté algunas de sus palabras en el documento y ella hizo una pausa y
luego escribió “Umm…” La impulsé cuestionando mi propia interpretación como investigadora
“¿Entendí mal? ¿Estoy malinterpretando completamente esto?” Ella dijo que sí y luego explicó
lo que quería decir con sus palabras. Este humilde diálogo nos acercó a Courtney ya mí, corrigió
mis malas interpretaciones de su escritura y proporcionó más espacio para su voz.

Leer imágenes en red horizontalmente


Dado que la historia de Courtney está tan enredada con las tecnologías visuales (cámara de
video y cámara) y las tecnologías para compartir en red (YouTube, Instagram), es importante
que los métodos de investigación presten atención a la agencia de la materialidad del ensamblaje
de la investigación y no solo a la agencia de las palabras. No son solo los discursos que fluyen
a través de las tecnologías para afectar los resultados, sino también el diseño y la presencia de
las tecnologías mismas que pueden tener impactos en el ensamblaje y los resultados de la
investigación. Entonces, dentro de un nuevo marco materialista, la agencia no es singular y
lineal —el discurso da forma a la acción— sino que la agencia es enredada y múltiple, se origina
en muchas fuentes y se mueve en múltiples direcciones dentro del conjunto de investigación.

Para nuestro estudio, y dentro de un nuevo marco materialista, la imagen en sí misma, cómo
se manejan típicamente las fotos y el potencial de acción de las fotos como objetos de
investigación dentro del conjunto de investigación, pueden ejercer un poder agente para dar
forma a los resultados de la investigación. Karin Hultman y Hillevi Lenz Taguchi (2009) han
elaborado lo que ellos llaman un enfoque materialista relacional para leer datos visuales como
fotos o videos. Argumentan que en lugar de leer el objeto de la foto de manera antropocéntrica,
como suelen hacer las fotos, donde nos enfocamos predominantemente en los humanos en la
imagen, el proceso de leer la imagen horizontalmente marca los elementos humanos y no
humanos de la foto como igualmente importantes y agente en la producción de la imagen. En
su explicación original, Hultman y Taguchi discuten una foto que capturaron y analizaron en un
proyecto de investigación que examinó el juego infantil. En la foto, una niña sentada en una caja
de arena observa cómo la arena fluye entre sus dedos. Mientras que un análisis visual
antropocéntrico atendería exclusivamente a la niña y su agencia en la arena, un análisis
materialista relacional argumenta: “la niña y la arena no tienen agencia propia”, sino que la
agencia se ve como:

“emergiendo” entre diferentes cuerpos involucrados en compromisos y relaciones


mutuas: músculos que levantan el brazo y la mano que se abren lentamente y sueltan la
arena, que por la fuerza de la gravedad cae con velocidad específica en el balde. La
base desigual de la caja de arena obliga al cuerpo
Machine Translated by Google

Redacción del cuerpo del artículo 127

de la niña para acomodar todo su cuerpo alrededor de la arena. La fuerza de la


gravedad, los cimientos irregulares, la cubeta y la calidad de los granos de arena
son todas fuerzas activas que interactúan con su cuerpo y su mente y con las que
tuvo que trabajar y en contra.
(Hultman y Taguchi, 2009, pág. 530)

Cuando leemos fotos horizontalmente, nos movemos más allá de los humanos en la foto
para agregar dimensión y profundidad al universo que está operando en la producción de
las acciones en la imagen.
Podemos usar un enfoque materialista relacional para observar las imágenes de
Courtney que compartió en Facebook y que luego fueron censuradas. Mientras que la hija
de Hultman y Taguchi interacciona de manera agente con la arena y el espacio del cajón
de arena, en una de las fotos censuradas de Courtney, ella toma la disposición de una
selfie: su atención se dirige juguetonamente hacia la cámara. Sugiero que podemos
adaptar la lectura horizontal de las fotos para incluir la acción interna del cuerpo de
Courtney y la presentación de sí mismo con varias fuerzas materiales de la imagen en este
momento. Ella interactúa mientras se ve afectada por: la tecnología de la cámara, la
plataforma de medios sociales de intercambio en red y las posibilidades específicas de
esas plataformas, los mecanismos reguladores discursivos que controlan su presentación
de género y los mecanismos tecnológicos materiales que controlan el visibilidad y el
intercambio de sus imágenes. Una vez más, ella no adopta simplemente tropos de género
en la presentación de sí misma, sino que se moldea, moldea y trabaja entre y contra
muchas fuerzas en este momento de producción fotográfica. Así, la lectura horizontal de la
imagen enreda las imágenes más allá de los bordes de la foto entre la materialidad
necesaria en la producción y difusión de la imagen. La imagen, entonces, no es
simplemente una representación o una presentación, sino también un material
tecnológicamente entrelazado y un proceso discursivo de devenir.
Dado que las fotos en red nunca son estáticas y, a menudo, fluyen de una ubicación
en línea a otra o interactúan con ellas de manera comunicativa, sugiero que la lectura
horizontal de imágenes en red también debe prestar atención al futuro temporal y al
pasado del ciclo de vida de la foto dentro de su red. existencia. Para visualizar esto,
podemos imaginarnos posicionándonos como investigadores, no fuera de la imagen, sino
posicionándonos en el borde de la imagen, nuestro ojo sentado a mitad de camino por
encima y a mitad de camino por debajo del plano de la superficie de la imagen. Podemos
imaginar el material específico y los elementos discursivos de la foto avanzando en el
tiempo y retrocediendo en el tiempo más allá de la superficie de la imagen: el cuerpo de
Courtney se extiende hacia un pasado y un futuro futuro, la imagen misma existe en su
momento original de publicación pero luego censurado en una fecha posterior. La lectura
horizontal de una foto en red reconoce que una imagen tiene una historia temporal y un
futuro temporal que está enredado dentro del conjunto discursivo material de las redes
sociales, las tecnologías, las audiencias, las normas de género y las posibilidades de la plataforma.
Ahora podemos colocarnos en el borde de la foto de Courtney para mirar el pasado
temporal y la historia de su vida en línea para ver el material y
Machine Translated by Google

128 Katie Warfield y Courtney Demone

fuerzas reguladoras discursivas que vigilaban la existencia de su foto y su puesta en línea.


Courtney cuenta la historia:

Solo unos meses después del lanzamiento del proyecto, Facebook e Instagram optaron
por censurar todas mis fotos, incluso aquellas en las que no había desarrollo de los
senos. Creo que esto fue generado por un artículo de The Guardian sobre mi proyecto
en el que el periodista contactó a Facebook y pidió su opinión. Poco después de eso,
todas mis fotos fueron censuradas.

Aquí vemos que la vida útil de la imagen está conectada con su distribución en red a través
de los principales medios de comunicación (The Guardian). La publicidad de las imágenes en
los principales medios de comunicación dio visibilidad a su cuerpo, al tiempo que informaba a
las audiencias sobre su política, lo que llevó a las audiencias a marcar sus publicaciones y a la
posterior censura de su foto. Enredado con la imagen está el medio de comunicación en línea
que inicialmente distribuyó sus fotos, los principales medios de comunicación que las
transmitieron a audiencias más amplias y las posibilidades que permitieron a estas audiencias
amplias señalar su idoneidad, lo que impuso la vigilancia de género de la visibilidad de su cuerpo.
Después de su amplia difusión en línea, Courtney detalla cómo la censura de las fotos se
enreda entre las posibilidades materiales y las fuerzas discursivas que detallaron los
"estándares de la comunidad" que resultaron en la vigilancia de género de su cuerpo en línea.
En las Figuras 10.3 a 10.10, Courtney proporciona imágenes de la imagen censurada, el
proceso de censura y las disposiciones reglamentarias que controlaban la visibilidad de sus
imágenes.

FIGURA 10.3 Creación de una publicación.


Machine Translated by Google

FIGURA 10.4 Ser denunciado por alguien.

FIGURA 10.5 El algoritmo le da el visto bueno.


Machine Translated by Google

FIGURA 10.6 Reportado nuevamente y señalado por un moderador.

FIGURA 10.7 Revisión de los estándares de la comunidad de Facebook.


Machine Translated by Google

Redacción del cuerpo del artículo 131

FIGURA 10.8 Revisión de otras fotos.

FIGURA 10.9 Bloqueo temporal.

Podemos ver en esta sección de la vida útil de la foto el enredo de las posibilidades
materiales del manejo regulatorio de la foto con las fuerzas discursivas que vigilan la
visibilidad del cuerpo de Courtney en la imagen. Un ser humano reporta la imagen
considerando que el cuerpo de Courtney se lee como femenino, sujeto a la norma de
visibilidad de género y, por lo tanto, inapropiadamente desnudo. Una máquina le da el
visto bueno a la imagen, negando así que se la lea como mujer, al mismo tiempo que
libera su cuerpo de las normas policiales de género. Un moderador humano marca la
foto nuevamente marcando su cuerpo como femenino y sometiendo su cuerpo nuevamente a
Machine Translated by Google

132 Katie Warfield y Courtney Demone

FIGURA 10.10 Obligación de revisar otras fotos a cuenta.

normas de visibilidad de género. Se entrega un mensaje formulado a Courtney que le brinda opciones de
acción veladas, educadas pero limitadas, además de eliminar las fotos.
Las posibilidades del proceso de marcado no le dan a Courtney ninguna opción de disputa, lo que
muestra la rígida defensa de los mecanismos regulatorios de género dentro de la mecánica de la
plataforma. La plataforma solicita además que Courtney revise sus otras fotos, lo que sugiere que, dado
que los "estándares" que Courtney usó para evaluar su foto original no coincidían con los "estándares de
la comunidad" de la plataforma, es posible que se hayan usado los mismos "estándares ofensivos" para
evaluar otras imágenes en su feed, lo que obligó a Courtney a incorporar los estándares comunitarios
normativos y reguladores en un proceso de autocontrol.

En una conversación posterior con Courtney, ella amplía el tácito género


y la naturaleza trans-exclusiva de los estándares de la comunidad de Facebook:

Lo que me molestó fue que tanto los mensajes de Instagram como los de Facebook que me
enviaron al censurar mis fotos decían que lo hacían para garantizar un espacio seguro en sus
plataformas. Mientras tanto, informaba sobre todo tipo de comentarios que me malinterpretaban,
usaban calumnias y llamaban a la violencia contra mí, y todo lo que obtuve fue: "Revisamos este
comentario y descubrimos que no viola las pautas de nuestra comunidad". ¿Cómo defines
"seguro" cuando los pezones no son seguros y las amenazas sí lo son?

El intercambio político de imágenes de los senos de las mujeres está censurado manteniendo las
normas de género de la visibilidad de los cuerpos de las mujeres. Los comentarios exclusivos para
personas trans no están censurados, ya que la plataforma los considera como libertad de expresión y,
por lo tanto, dentro de los estándares de la comunidad de la plataforma. Cuando observamos la vida útil de las redes
Machine Translated by Google

Redacción del cuerpo del artículo 133

imágenes a través de una lectura horizontal de imágenes en red, revelamos muchas más
fuerzas materiales y discursivas en juego que simplemente lo que se ve en la superficie.

Conclusión
Mientras que los paradigmas de presentación y representación crean distancia entre el
investigador, la imagen y el tomador de la imagen, me baso en nuevos métodos materialistas
y los adapto para los investigadores en línea, para fomentar una contracción del espacio
entre el escritor, la imagen y el investigador. Courtney y yo hicimos esto al proponer tres
nuevos métodos de influencia materialista: 1) incorporarse a la historia; 2) intravisión en red;
y 3) leer imágenes en red horizontalmente.
Meating in the story es un juego sobre el encuentro en la historia, pero en lugar de
centrarse exclusivamente en los datos discursivos, el proceso enfatiza las cualidades
materiales y discursivas de la escritura misma. Queríamos ir más allá de la posición de
investigación de afuera hacia adentro de los métodos de representación y presentación, y
por eso adoptamos un método que nos colocaba muy cerca en el proceso de narración y
creación de significado. Como mencioné, quería contraer el espacio entre investigador,
escritor y escritura y quería jugar con métodos que respetaran el devenir mediado de la
historia de Courtney. Meterse en la historia implica adoptar un método de escritura que imitó
las posibilidades materiales del entorno original de escritura dialógica en el que Courtney
publicó por primera vez sus historias: YouTube e Instagram.
También invitó a Courtney a estar presente tanto en la recopilación de datos como en la
redacción del capítulo mismo.
La visualización interna en red se basa en métodos de visualización interna fuera de
línea, lo que fomenta la atención no solo a la información verbal, sino también a las metáforas
y vibraciones incorporadas del participante, como pausas, omisiones y cambios de tono.
Adaptamos estos métodos para la visualización interna en línea y sugerimos que la escucha
puede ocurrir entre las palabras en las prácticas de entrevistas en vivo al notar pausas en
las respuestas y cambios en el estilo de escritura que pueden reflejar cambios en el estado
de ánimo. La intravisualización en red también atiende al uso de metáforas que,
argumentamos, pueden ser incluso más fáciles de fomentar, ya que las posibilidades y la
modalidad de escribir en línea brindan la seguridad y la privacidad que podrían fomentar ese tipo de expresión
La lectura horizontal de imágenes en red es un método adaptado del modelo de Karin
Hultman y Hillevi Lenz Taguchi (2009) de lectura horizontal de fotografías analógicas.
Desarrollada a partir de un nuevo marco materialista que privilegia los elementos humanos
y no humanos en una foto, la lectura horizontal de fotos en red atiende a la forma en que la
agencia funciona de manera dispersa, enredada y multidireccional en una foto. Cuando se
trata de imágenes en red, este método atiende a la tecnología utilizada para tomar la imagen
(cámara, video, etc.), la plataforma utilizada para distribuir la imagen (YouTube, Facebook,
etc.) y cómo esas fuerzas son enredado con las fuerzas discursivas interseccionales en
juego que pueden involucrar género, raza, clase, sexualidad, habilidad, etc. El método de
lectura de imágenes en horizontal también atiende a la vida útil de la foto, lo que puede
revelar que la importancia y
Machine Translated by Google

134 Katie Warfield y Courtney Demone

El impacto de estas diferentes fuerzas materiales y discursivas puede aplicar más o menos
fuerza en diferentes momentos en el tiempo de vida de la foto.
Los tres métodos desafían los paradigmas representacionales y presentacionales partiendo
del punto de que los fenómenos de investigación no son momentos discretos para ser
estudiados por un investigador objetivo a distancia, sino que son devenires materiales y
discursivos complejos en los que el investigador está siempre y ya enredado.
Como tal, y en este caso, las imágenes de Courtney de su cuerpo deben ser estudiadas como
una serie de ensamblajes complejos entrelazados con identidad, cuerpos materiales,
emociones, afecto, tecnologías de intercambio en red y prácticas de diálogo y diálogo de la audiencia.
respuesta.
Es importante destacar que mi punto no es sugerir que los paradigmas del
representacionalismo y el presentacionalismo no tienen validez. El representacionalismo nos
proporciona caminos para examinar los mecanismos de poder que trabajan para hacer cumplir
las concepciones hegemónicas de los cuerpos socialmente mediados y el presentacionalismo
llama la atención sobre la negación de los yoes en medio del tira y afloja de las fuerzas
asociadas con las categorías de identidad. Estos paradigmas tienen un mérito importante. Lo
que estoy sugiriendo, en cambio, es que la fuerza ontológica de estos paradigmas está tan
arraigada, y la disposición del investigador a los sujetos de investigación que fomentan los
paradigmas está tan arraigada, que estos paradigmas están dando forma al estudio y manejo
de los cuerpos socialmente mediados al crear distancia. entre los datos y el productor de datos.
Argumento que esto podría tener implicaciones éticas sobre cómo nosotros, como
investigadores, manejamos los datos en línea, particularmente los datos conectados al cuerpo,
y que los nuevos métodos informados materialistas podrían fomentar un manejo más ético de
los datos a nivel del investigador individual y más ampliamente. a nivel de la ética de la investigación.

notas
1 Para investigaciones que reconocen que las imágenes están conectadas afectivamente con el productor de
imágenes, ver: el yo en red (Papacharissi, 2011) y la forma en que el tiempo y el espacio se sienten en línea
(Georgakopoulou 2017), así como una amplia literatura que discute la conexión afectiva entre los jóvenes y
imágenes que comparten en línea (Tiidenberg, 2014; Hillis et al., 2015; Vivienne, 2016, 2017; Raun 2012;
Warfield 2016).
2 Para una discusión más extensa de qué fuerzas y cómo las fuerzas discursivas materiales crean
comió cortes de agencia, ver Barad, 2007.

Referencias
Abidín, C. (2016). "¿No son estas mujeres jóvenes y ricas que hacen cosas vanas en línea?" gripe
encer selfies como frivolidad subversiva. Social Media & Society, 1(4), 1–17.
Barad, K. (2007). Encuentro con el universo a mitad de camino: la física cuántica y el entrelazamiento de la materia
y significado, 2ª ed. Durham: Prensa de la Universidad de Duke.
Brinkman, S. (2011). La entrevista y la producción del yo conversacional. Posada.
Denzin & M. Giardina (Eds.), Investigación cualitativa y crisis globales (págs. 56–75). Walnut Creek, CA:
Prensa de la costa izquierda.
Machine Translated by Google

Redacción del cuerpo del artículo 135

Cohen, KR (2005). ¿Qué quiere el fotoblog? Medios, cultura y sociedad, 27(6),


883–901.

Deleuze, G., Guattari, F. y Massumi, B. (1984). Mil mesetas: capitalismo y esquizo


Frenia, 9ª ed. Minneapolis: Prensa de la Universidad de Minnesota.
Fox, Nueva Jersey y Alldred, P. (2014). Nueva investigación social materialista: Diseños, métodos y la
investigación-ensamblaje. Revista Internacional de Metodología de la Investigación Social, 18(4), 399–414.
Fraser, H. y McDougall, C. (2017). Haciendo investigación feminista narrativa: Intersecciones y
retos Trabajo social cualitativo, 16(2), 240–254.
Fresh, P. (2015). La imagen gestual: El selfie, la teoría de la fotografía y la sociedad kinestésica
habilidad Revista internacional de comunicaciones, 9, 1607–1628.
Gajjala, R. (2015). Elaborando el Subalterno Digital 2.0 a través de la Filantropía 2.0: Conexión Global y acceso
a través de microcréditos digitales. Presentado en la serie de conferencias Pixelated Eye balls, Universidad
Politécnica de Kwantlen, marzo. www.youtube.com/watch?v=23lNl3JkBV0

Georgakopoulou, A. (2016). De narrarse a sí mismo(s) a publicar uno(s) sí(s) mismo(s): Unas pequeñas historias
acercamiento a los selfies. Lingüística abierta, 2(1), 300–317.
Georgakopoulou, A. (2017). Investigación de pequeñas historias: un paradigma narrativo para el análisis de las
redes sociales. En L. Sloan & A. Quan-Hasse (Eds.), Manual SAGE de métodos de investigación en redes
sociales (págs. 266–282). Londres: Sabio.
Gye, L. (2009). Imagínese esto: el impacto de los teléfonos móviles con cámara en las prácticas fotográficas
personales. Continuo, 21(2), 279–288.
Haldrup, M. y Larsen, J. (2003). La mirada familiar. Estudios Turísticos, 3(1), 23–46.
Hillis, K., Paasonen, S. y Petit, M. (2015). Afecto en red. Cambridge, MA y Londres:
Prensa del MIT.

Hultman, K. y Taguchi, L. (2009). Desafiando el análisis antropocéntrico de los datos visuales: un enfoque
metodológico materialista relacional para la investigación educativa. Revista Internacional de Estudios
Cualitativos en Educación, 23(5), 525–542.
Kindberg, T., Spasojevic, M., Fleck, R. y Sellen, A. (2005). La omnipresente cámara: un estudio en profundidad
del uso de teléfonos con cámara. Computación generalizada de IEEE, 4(2), 42–50.
Kuntz, A., & Presnell, M. (2012) Deambulando por lo táctico: De la entrevista a la intravista.
Investigación cualitativa , 18(9), 732–744.
Lasén, A. (2014). “Pero no tengo un cuerpo para mostrar”: autopornificación y sentimientos encontrados
masculinos en prácticas de seducción mediadas digitalmente. Sexualidades, 18(5–6), 714–730.
Latour, B. (1993). Nunca hemos sido modernos. Cambridge, MA: Prensa de la Universidad de Harvard.
Lister, M. (Ed.). (1995) La imagen fotográfica en la cultura digital. Nueva York: Routledge.
Marwick, A. (2013) “Género, sexualidad y redes sociales”. En Senft, T. & Hunsinger, J. (eds),
El manual de medios sociales (págs. 59-75). Nueva York: Routledge.
Munir, KA y Philips, N. (2005). El nacimiento del “momento Kodak”: Emprendimiento institucional y adopción de
nuevas tecnologías. Estudios de organización, 26(11), págs. 1665–1687.

Neisser, J. (2003). La forma oscilante: Imaginación, metáfora, encarnación. Fenomenología


y las Ciencias Cognitivas, 2, 27–53.
Papacharissi, Z. (2011). Un yo en red. Nueva York: Routledge.
Raun, T. (2012) En línea: autorrepresentación trans y construcción de comunidad en ti
Tubo. Tesis doctoral, Universidad de Roskilde.
Rettberg, JW (2014). Vernos a nosotros mismos a través de la tecnología: cómo usamos selfies, blogs y
dispositivos portátiles para vernos y moldearnos. Londres: Palgrave Pivot.
Machine Translated by Google

136 Katie Warfield y Courtney Demone

Ringrose, J. y Renold, E. (2014). “¡F**k rape!”: Explorando las intensidades afectivas en un conjunto de
investigación feminista. Investigación cualitativa, 20(6), 772–780.
Saltzburg, S. y Davis, T. (2010). Co-autoría de identidades juveniles de género queer: relatos y recuentos
discursivos. Revista de Diversidad Étnica y Cultural en Trabajo Social, 19(2), 87–108.
Tiidenberg, K. (2014). Recuperar lo sexy: recuperar la estética del cuerpo a través de la autofotografía.
Ciberpsicología: Revista de Investigación Psicosocial en el Ciberespacio, 8(1).
Urry, J. (2007). Movilidades. Londres: Sabio.
Van House, NA (2011). HCI feminista se encuentra con Facebook: performatividad y sitios de redes
sociales. Interactuando con las computadoras, 23(5), 422–429.
Vivienne, S. (2016). Identidad digital y activismo cotidiano: compartir historias privadas con públicos en red.
Basingstoke: Palgrave Mac Millan.
Vivienne, S. (2017). “No me odiaré porque no me puedes aceptar”: problematizando el empoderamiento y
los selfies de género diverso. Comunicación Popular, 15(2), 126–140.
Warfield, K. (2015). El modelo, el #realme y el actor tímido. sub digital
objetividades en el selfie. Revista Internacional sobre la Imagen, 6(2), 1–16.
Warfield, K. (2016). Hacer el corte: un examen realista de agencia de selfies y tacto.
Social Media + Society, 2(2), 1066–1079.
Machine Translated by Google

11
CLONES Y CIBORGS:
METÁFORAS DE ARTIFICIAL
INTELIGENCIA

jessa lingel

Parte de la ansiedad en torno a la inteligencia artificial (IA) se deriva de su liminalidad y la


incapacidad contingente para desambiguar lo humano de lo no humano, para identificar la
artificialidad de la inteligencia sociotécnica. Como género que alternativamente predice y
ridiculiza, la ciencia ficción ofrece muchos tropos y modelos para dar sentido a las tensiones
que rodean las relaciones humanas con la tecnología, incluidas las relacionadas con la IA.
Basándome en la ciencia ficción y en la teoría STS, comparo dos metáforas por su
capacidad de dar sentido a la IA: cyborgs y clones. A medida que la IA continúa
evolucionando, será cada vez más necesario desarrollar narrativas que nos permitan dar
sentido a las divergencias y convergencias entre humanos y no humanos. La ciencia
ficción, y en particular (argumentaré) los patrones de gemelos y clones en la ciencia ficción,
pueden ayudar a navegar las relaciones cambiantes entre las personas y las tecnologías a
medida que la IA continúa integrándose en la vida cotidiana.
Parto de la premisa de que la ciencia ficción ofrece una alternativa productiva a otras
narrativas más racionalistas, obtusas y sujetas a los estándares generalmente aceptados
de la realidad de las relaciones entre las personas y la tecnología. Como anécdota, he
notado una mayor atención entre académicos y activistas hacia la ciencia ficción. Los
clubes de lectura que solían leer solo textos académicos están comenzando a incorporar
ficción especulativa. Artistas y tecnólogos están convocando conferencias de ciencia
ficción e incluso juegos de rol de acción en vivo basados en tramas distópicas de ciencia
ficción. Si bien uno podría atribuir este interés a un deseo de escapismo o en respuesta a
un aumento de la ciencia ficción de alta calidad en los principales medios de entretenimiento,
mi interpretación es diferente: las personas que piensan en las relaciones éticas con la
tecnología buscan un vocabulario y un conjunto. de narrativas que pueden ayudar a dar
sentido al rápido cambio sociotécnico. ¿Por qué debemos limitarnos a conceptos estrictos
y estrechos de la realidad (es decir, lo que existe actualmente en el mercado de masas)
en los discursos de la tecnología, dado que el cambio es rápido y continuo? ¿Por qué enfatizar?
Machine Translated by Google

138 Jessa Lingel

lo racional y probado sobre lo especulativo e imaginado? Suponiendo que no estamos tratando de


explicar con precisión cómo funciona una tecnología, sino solo cómo las personas se relacionan con
ella, ¿por qué no recurrir a la ciencia ficción como un género con el telos de predecir, desempacar y
manipular las percepciones sociales del cambio científico y tecnológico?

Nakamura (2002) acuñó el término cibertipo “para describir las formas distintivas en que Internet
propaga, difunde y mercantiliza imágenes de raza y racismo” (p. 3). Sinnreich y Brooks (2016) ofrecieron
una extensión de los pensamientos de Nakamura para producir el término tipofuturo, destinado a

abarcar una gama más amplia de temas de diferencia y nuevos actores y sujetos políticos, con
un enfoque en las formas en que las expectativas ideológicas, los supuestos y los sesgos se
codifican en las historias que nos contamos a nosotros mismos y a los demás sobre el futuro
de nuestra especie y nuestra vida. En el universo. (pág. 5664)

Su proyecto (en el que colaboré) implicaba mirar a la ciencia ficción para ayudar a dar sentido a los
paisajes tecnológicos socialmente complejos y en constante cambio.
Los colaboradores consideraron por qué ciertos tropos, como los encuentros con extraterrestres
(Lichfield et al., 2016) o la inmortalidad (Adams et al., 2016), no solo persisten en la ciencia ficción, sino
también qué podrían señalar estas emergencias en términos de anticipaciones psicosociales de cambio
tecnológico. En ese proyecto, examiné el uso de agujeros negros en la ciencia ficción para hablar sobre
el papel del silencio metafísico en la explicación de lo que se puede y no se puede saber en los
discursos científicos (Lingel, 2016). Mientras cambio de tema, uso este mismo modelo aquí, basándome
en metáforas de ciencia ficción para informar las respuestas al surgimiento de sistemas de información,
software y plataformas inteligentes. Como una forma de pensar sobre las ansiedades y el entusiasmo
en torno a la IA, quiero rastrear dos tipos de futuro de ciencia ficción que modelan las relaciones
humano-computadora con la IA de maneras muy diferentes: cyborgs y clones.

Las metáforas no operan en un juego de legitimidad de suma cero. Cada metáfora tiene lagunas,
superposiciones e inconsistencias. Todos son, en última instancia, inadecuados en términos de
explicaciones; mi objetivo es abordar metáforas que sean útiles como provocaciones. En última
instancia, este capítulo afirma que los clones ofrecen información sobre las tensiones que rodean la
integración de la IA en la vida cotidiana, proporcionando un vocabulario y un conjunto de metáforas
para pensar sobre las complejidades de la automatización, la duplicación y el mimetismo. Argumentaré
que el mimetismo subyace a las ansiedades centrales en torno a la IA, incluso cuando (o porque) las
tecnologías de IA se evalúan en términos de su capacidad para duplicar (y engañar de manera convincente) a los humanos
Desde los autómatas hasta la prueba de Turing, las percepciones de la IA son coextensivas con el
mimetismo (Schwartz, 2014). Al mismo tiempo, cuanto más fiel es la réplica, más incómodas se vuelven
las relaciones hombre-máquina. El éxito técnico con IA tiene, por lo tanto, una relación directa

relación con el malestar psicosocial. Es esta falla la que desgloso en este capítulo.
Como resumen, primero presento las teorías de los cyborgs, basándome en el trabajo fundacional
de Haraway (1994), “Cyborg manifesto”. Luego pasaré a la ciencia ficción.
Machine Translated by Google

Clones y Cyborgs 139

tropo de gemelos, clones y doppelgängers. Mis objetivos con este ejercicio son varios: legitimar la
ciencia ficción como fuente de indagación sobre la ética sociotécnica; ofrecer una descripción más rica
de las anticipaciones psicosociales de la IA a través de la comparación; y sugerir la duplicación como un
medio más reflexivo de pensar a través de la IA como un desarrollo con implicaciones para el bienestar
social.
Primero, sin embargo, una definición de IA, que durante tanto tiempo ha sido una figura de ciencia
ficción que puede ser difícil reconocer su aparición material. De hecho, hay un casi presentismo continuo
en la IA, una sensación de que siempre está a punto de emerger, pero nunca del todo. Por el contrario,
sostengo que la IA no está esperando en las alas beta del desarrollo tecnológico, sino que, de hecho, ya
está aquí en asistentes digitales como Siri y Cortana, en dispositivos domésticos como Alexa y en
algoritmos de aprendizaje automático profundo que dan forma al comercio de alta frecuencia. tanto como
el uso casual de motores de búsqueda. La "inteligencia" de estas manifestaciones artificiales cambia de
forma a función, lo que hace que una taxonomía de la funcionalidad de la IA sea particularmente útil,
como la siguiente tipología del Consejo Nacional de Ciencia y Tecnología (2016):

(1) sistemas que piensan como humanos (por ejemplo, arquitecturas cognitivas y redes
neuronales); (2) sistemas que actúan como humanos (p. ej., pasan la prueba de Turing a través
del procesamiento del lenguaje natural, la representación del conocimiento, el razonamiento
automatizado y el aprendizaje); (3) sistemas que piensan racionalmente (por ejemplo,
solucionadores lógicos, inferencia y optimización); y (4) sistemas que actúan racionalmente (por
ejemplo, agentes de software inteligentes y robots incorporados que logran objetivos a través de
la percepción, la planificación, el razonamiento, el aprendizaje, la comunicación, la toma de decisiones y la actuación

Aquí, la IA toma forma a través de dos ejes: actuar frente a pensar, y la irracionalidad humana frente a
la racionalidad de la máquina. Así vemos dos categorías de resultados, pensar y actuar, y dos
caracterizaciones de actores, con humanos como subjetivos e irracionales, con máquinas como
racionales y objetivas. Las divisiones y caracterizaciones que emergen aquí se refuerzan y perturban en
las narrativas de ciencia ficción.
Estoy interesado en instancias de IA en su forma más extraña. La ciencia ficción está repleta de
imágenes de HAL y Her (Kubrick et al., 2001; Phoenix et al., 2014) como sistemas de IA implementados
a través de software. Pero a pesar de lo provocativas que han sido estas apariencias, quiero pensar en
una convergencia más estrecha de la IA que ocupa, en cierta medida, el cuerpo humano. En parte, esta
concentración tiene que ver con mis propios intereses en la encarnación en lo que se refiere a la
tecnología, particularmente en términos de regular, gobernar o hegemonizar el cuerpo (Crawford et al.,
2015). La inquietud en torno a la IA tiene que ver con la automatización como una amenaza para las
tareas y el comportamiento sobre los cuales los humanos han mantenido durante mucho tiempo (sintieron
que) tenían un monopolio. Cyborgs y clones aparecen continuamente en los medios de ciencia ficción
como artefactos que hablan de cómo se imagina el futuro como una convergencia de cuerpos, máquinas
y reflexividad. Se podría argumentar que los clones y los cyborgs son, de hecho, las manifestaciones
más visibles de la IA, y serán las apariciones menos visibles las que, de hecho, tengan más carga ética.
Pensadores como Pasquale (2016) y Howard (2015) han escrito
Machine Translated by Google

140 Jessa Lingel

de manera persuasiva sobre la creciente invisibilidad de los algoritmos en las tecnologías cotidianas,
donde la invisibilidad de la racionalidad y la acción de las máquinas hace imposible rastrear los datos
que recopilan o interrogar el control de la información. Mi enfoque aquí es observar las instancias más
visibles de duplicación e hibridación de la ciencia ficción como una forma de pensar sobre las
instancias de duplicación automatizada (de datos, identidad y trabajo) que toman forma a través de la
IA. Habiendo superado las ansiedades y vacilaciones que rodean instancias hipervisibles (y ficticias)
de metáforas de clonación, podemos pasar a emergencias de IA mucho menos visibles y mucho
menos obvias.

cyborgs
Es difícil exagerar la influencia del “Manifiesto Cyborg” de Haraway (1998), una meditación que rompe
la subjetividad sobre la encarnación, el género, la computación y la política de la ciencia. Desde STS
hasta la teoría feminista y los amantes de la ciencia ficción, una variedad heterogénea de lectores se
han sentido atraídos por la definición de cyborg de Haraway como "un organismo cibernético, un
híbrido de máquina y organismo, una criatura de la realidad social y una criatura de ficción". ” (pág.
191). Crucial para mis intereses en este artículo, es tan útil para Haraway pensar en el cyborg como
un meme literario como pensar en los cyborgs como si realmente existieran porque cuando el cyborg
emerge como una metáfora indica tensiones y conflictos que surgen de relaciones sociales con la
tecnología.

El cyborg puede parecer una opción obvia para cuestionar las relaciones entre humanos y
máquinas. Los cyborgs nos han fascinado en su excavación de la extrañeza humano-máquina. Para
Freud, la extrañeza se refiere a manifestaciones que simultáneamente son y no son humanas. Lo
siniestro es “esa clase de lo aterrador que nos lleva a algo que conocemos desde hace mucho tiempo,
una vez familiar” (2003, p. 1).
Las muñecas, las extremidades amputadas, los ataques epilépticos y, lo que es más importante, los
espejos son todos extraños. Los cyborgs son asombrosos en la animación de las máquinas, así como
en la liminalidad de los cuerpos humanos y las partes de las máquinas. El cyborg de Haraway está
“decididamente comprometido con la parcialidad, la ironía, la intimidad y la perversidad. Es
oposicionista, utópico y completamente carente de inocencia” (1998, p. 192). Para Haraway, los
cyborgs emergen en el misterioso eje de las personas, los animales y la cibernética; los cyborgs son
útiles para provocar la incomodidad de mezclar lo que había sido distinto. Y, sin embargo, los cyborgs
no son tan extraños como lo eran antes.
He enseñado el “Manifiesto Cyborg” muchas veces en seminarios de pregrado sobre género y
tecnología. En su mayor parte, a mis alumnos no les gusta leer el diagnóstico de Haraway sobre un
panorama sociotécnico, en oposición a la irresistiblemente concreta accesibilidad de Langdon Winner,
mientras que el jurado está dividido en gran medida respecto a Bruno Latour, a quien un alumno
describió memorablemente como “manipulador en su humor. ” Pero en cuanto a Haraway, la
encuentran abstrusa y parecen incapaces de detectar las capas de humor y el juego irreverente que
caracterizan sus críticas. Por lo general, incluyo una tarea en la que pido a los estudiantes que
recopilen ejemplos de cyborgs en la cultura popular. Lo que emerge es típicamente decepcionante en
su previsibilidad: robots femeninos hipersexualizados,
Machine Translated by Google

Clones y Cyborgs 141

Robocop, la inclusión ocasional de retoques steam punk. A pesar de que “Cyborg Manifesto”
tiene 30 años, todas estas imágenes habrían sido inmediatamente reconocibles para Haraway,
para gran (creo) su decepción. Aunque el cyborg —como ficción, relación, acusación y rebelión
— perdura como una contribución destacada del texto de Haraway, el “Manifiesto Cyborg”
también ofrece un relato de un momento sociotécnico particular, un momento que está
relacionado pero decididamente diferente de un momento perturbado por la IA. Como tal, el
cyborg puede, de hecho, ser inadecuado para ayudar a dar sentido a las tensiones en torno a
la IA como una realidad emergente.
La propia Haraway se ha alejado en gran medida de la teoría del cyborg, declarando "Ya no
hablo por el cyborg" en una conferencia STS de 2015 (Acker, comunicación personal). Además,
los componentes clave del cyborg se han producido sin resolver las tensiones sociotécnicas en
torno al surgimiento de la agencia en los organismos artificiales. Haraway escribió que “un
mundo cyborg podría ser sobre realidades sociales y corporales vividas en las que las personas
no tienen miedo de su parentesco conjunto con animales y máquinas, no tienen miedo de
identidades permanentemente parciales y puntos de vista contradictorios” (1998, p. 196). Parte
de la razón por la que encuentro a los cyborgs insatisfactorios es que la sociedad posindustrial
se define cada vez más por personas que, como predijo Haraway, no temen su parentesco
conjunto con las máquinas, que no se caracteriza típicamente por constituir identidades parciales
o contradicciones, o al menos , no tan problemáticamente. En términos de relaciones con la
tecnología, se pueden reconocer ejemplos más literales de cyborgs en procedimientos médicos,
desde cirugía estética hasta células de órganos regeneradas e implantes funcionales. Un
conjunto menos directo de manifestaciones de cyborg incluye el acceso constante a medios
digitales y teléfonos inteligentes, la interacción diaria con bots, la exposición a predicciones
algorítmicas, el software de reconocimiento de voz y el análisis biométrico. Aunque este
parentesco con las máquinas se ha normalizado, persisten las tensiones éticas en torno a la IA.

El cyborg, tal como ha sido imaginado, ha sido incapaz de mantenerse a la vanguardia del
cambio tecnológico, para proporcionar un marco que pueda ayudar a negociar los enredos de la
ética de la IA. Cuando la IA nos alarma, es menos en términos de hibridez que de automatización
que reemplaza nuestros trabajos. Los humanos temen la irrelevancia humana frente a los
sistemas y máquinas que no solo hacen nuestro trabajo, sino que lo hacen mejor, realizando
tareas más allá de las capacidades humanas o incluso de la comprensión. Si lo que tememos
es el reemplazo, ser imitados con tanto éxito que se vuelvan obsoletos, entonces los cyborgs
pueden ser menos relevantes que otros tropos de ciencia ficción: gemelos, clones y doppelgängers.

gemelos y clones

Una revisión completa del uso de gemelos, clones y doppelgängers1 en la ciencia ficción está
más allá del alcance de este capítulo (para una revisión impresionantemente completa, consulte
Culture Decanted, 2014). Mi cuenta abreviada está destinada a hablar de temas de alto nivel
que surgen en el género en muchos formatos, desde series de televisión hasta películas, cómics
y videojuegos. Los temas clave que emergen a lo largo de esta breve revisión incluyen el parto,
la vida prolongada y los gemelos como contrapartes malvadas.
Machine Translated by Google

142 Jessa Lingel

También llamados fabricants (Arndt et al., 2012), ídems (Brin, 2002), señuelos de
modelos de vida (Marvel, 1965) y repuestos (Smith, 1997), las funciones de los clones en
la ciencia ficción se dividen en varias categorías amplias. A menudo, los clones se
producen para realizar trabajos no deseados. Un tema clave en esta categoría es la
disponibilidad; considere los episodios “The Rebel Flesh” y “The Almost People” de la serie
de televisión Doctor Who (Moffat et al., 2013), donde los títulos reflejan temas de pérdida
de control y reproducción resbaladiza que surgirán a lo largo de esta revisión. La tecnología
permite a los mineros usar una sustancia llamada Flesh para crear y controlar remotamente
copias de sí mismos llamadas pandilleros. Rutinariamente permiten que sus pandilleros
sean aplastados, derretidos y enterrados, dejando a sus progenitores humanos a salvo y
seguros. Con políticas laborales menos evidentes pero aún visibles, la película de comedia
Multiplicity (Albert & Ramis, 1996) presenta al protagonista Doug, a quien se le ofrece la
oportunidad de hacer múltiples clones de sí mismo para poder pasar más tiempo con su
familia. Aunque tienen los recuerdos de Doug, los clones desarrollan personalidades
contrastantes: uno se vuelve más macho, el segundo un ama de casa sensible, mientras
que un tercer clon, hecho de un clon existente en lugar del original, emerge tonto. Naruto
(de la serie de manga homónima, creada por Kishimoto, 1997) puede dividir su chakra en
"clones de sombra", que pueden usarse para engañar y espiar, pero también para entrenar:
cualquier experiencia o memoria que los clones obtengan se transfiere a el originador si el
clon es asesinado o "dispersado" de vuelta al usuario. La trama de Star Wars Episodio II:
El ataque de los clones (McGregor et al., 2002) gira en torno a la fabricación de un ejército
de soldados clones idénticos, todos basados en un notorio mercenario, pero alterados
para que sean totalmente obedientes. Las películas Moon (dirigida por Jones, 2009) y
Oblivion (dirigida por Kosinski, 2013) exploran de manera similar temas de clones
producidos como trabajadores obedientes, pero se centran en la desviación de sus
protagonistas y el descubrimiento de su agencia naciente.
La clonación también puede ser un medio para evitar la muerte, donde los psicólogos
han relacionado durante mucho tiempo los medios de duplicación como una forma de
buscar la inmortalidad.2 Admirado por Freud como teórico de los doppelgängers, Rank
(2012) describió la “invención de la duplicación como una contra la extinción” (p. 78). Never
Let Me Go de Ishiguro (2005) retoma este tema cuando los humanos en un futuro casi
distópico desarrollan clones criados con el propósito de donar órganos a humanos. En
House of the Scorpion (Farmer, 2013) el personaje principal es un clon de 12 años de un
narcotraficante vivo de más de 120 años, lo que garantiza la longevidad por poder. En Star
Wars: The Phantom Menace, la reina Amidala resulta tener un guardaespaldas
doppelgänger, cuya utilidad está ligada a su capacidad para funcionar como señuelo.
Utilizado en un episodio inicial de Ghost in the Shell (Kise & Shirow, 2015), un líder de la
resistencia parece seguir sobreviviendo a los asesinatos mediante el uso de clones
señuelo. La capacidad de autopreservación está un tanto subvertida aquí, ya que en
realidad son otros miembros de alto rango de la organización los que mantienen la farsa,
mientras que el original ha estado muerto durante años. En Infinite Space (dir. Kono, 2009),
el almirante zenitoniano Rubriko tiene una base llena de clones listos para recibir recuerdos
cargados en caso de su muerte. Drakov, el villano principal de Time Wars (Hanna-Barbera Productions & To
Machine Translated by Google

Clones y Cyborgs 143

creó una serie de clones idénticos y les implantó sus recuerdos, de modo que ni siquiera
él / ellos están seguros de cuál es el original. En la serie Age of Fire (dir. Knight, 2014), la
clonación resulta ser el secreto detrás de por qué no se puede matar a la Reina Roja: ella
posee un árbol mágico que produce copias de ella, y cada vez que se destruye su cuerpo,
su el espíritu simplemente se mueve a otro. Engañar a la muerte a través de la clonación
tiene una valencia de cobardía, lo que quizás sea parte de la razón por la cual los
doppelgängers y los gemelos se asocian con frecuencia con el mal.
Los clones provocan con frecuencia desconfianza e incluso enemistad. Por ejemplo, los
Cylons, robots realistas que vienen en doce modelos diferentes, en Battlestar Galactica son
antagonistas principales en la quinta temporada (Weddle et al., 2011; también hay un
volumen editado de trabajo académico sobre Battlestar Galactica titulado Cylons in America
—Potter & Marshall, 2008). De manera similar, mientras que la franquicia de Star Trek hace
uso de duplicados en múltiples ocasiones, "Mirror, Mirror" (Bixby, 1967) es la primera
instancia del programa de un universo paralelo con personajes gemelos. En este episodio,
un mal funcionamiento en el transportador de la Enterprise intercambia al Capitán Kirk y su
equipo de aterrizaje con contrapartes malvadas del "Universo Espejo", en el que la
Federación es, en cambio, el cruel Imperio Terran. (Curiosamente, este episodio parece
ofrecer el origen del tropo visual de la “perilla gemela malvada”). Pasando a los cómics,
Bizarro apareció por primera vez en 1958 como un doppelgänger opositor deformado de Superman (DC Com
La clonación agrava el peligro antagonista del Agente Smith en las secuelas de Matrix
(Wachowski & Wachowski, 2003); Smith, originalmente un agente de las máquinas que
gobiernan Matrix, adquiere la capacidad de autorreplicarse al convertir otras entidades en
copias de sí mismo. Comienza a asimilar a los habitantes humanos y del programa de
Matrix por igual, convirtiéndose en un virus que amenaza con consumir la existencia.
A veces, los clones se crean por accidente, como en el episodio de Star Trek
mencionado anteriormente, así como en un episodio posterior "Second Chances" (Dorn et
al., 1998) de Star Trek: The Next Generation. La nave estelar Enterprise se dirige a un
planeta peligroso donde el primer oficial Will Riker había estado estacionado ocho años
antes. Un mal funcionamiento del transportador durante una evacuación de emergencia
resultó en dos Will Rikers, uno de los cuales continuó su carrera en la Flota Estelar a bordo
del Enterprise mientras que el otro permaneció atrapado solo en el planeta durante ocho
años. No está del todo claro por qué los clones de Orphan Black (Maslany et al., 2013)
fueron creados por el éticamente tenue Instituto Dyad, pero si bien el impulso obsesivo por
el progreso científico es un tema dominante en el programa, también lo es la capacidad
para percances y consecuencias imprevistas. El espectáculo también es un ejercicio para
eliminar la ambigüedad de los dobles: una sola actriz, Tatiana Maslany, interpreta a todos
los clones, distinguibles para los espectadores mediante el uso de acentos, lenguaje
corporal y peinado y peinado (ver Pearl, próximamente).
El año 2014 parece haber sido un año pico para las clonaciones, con múltiples
periodistas señalando temas de duplicación (Jones, 2014; Robson, 2014; Wilkinson, 2014).
Schwartz (2014) ha señalado otros momentos de preocupación gemela en las décadas de
1790 y 1870, y postula un vínculo conceptual con una tendencia de la década de 1990 hacia
tramas con personalidades múltiples (p. 69). Schwartz argumentó que estos momentos
Machine Translated by Google

144 Jessa Lingel

de la preocupación por la multiplicidad reflejan tensiones sociales más amplias en torno a la


incertidumbre económica, el trauma de la posguerra y los puntos de vista cambiantes de las normas
psicológicas, respectivamente. La fascinación contemporánea por los gemelos y los clones puede
estar ligada al sentido latente de la fertilidad asistida o los avances médicos en el reemplazo
genético del cuerpo. Además, los temas de duplicación, especialmente en torno a la mano de obra
y la individualidad, pueden surgir de los desarrollos en automatización, IA y subcontratación de
mano de obra a máquinas.

En el diverso panorama de las narrativas de gemelos y clones de la ciencia ficción, podemos


rastrear una serie de temas interrelacionados con implicaciones para abordar el surgimiento
contemporáneo de la IA:

• Labor. La IA interviene en los momentos del parto, con la intención de aliviar las demandas
de atención y cognición humanas. Ocasionalmente, la IA surge para realizar tareas
inadecuadas para los humanos (las categorías de pensar y actuar racionalmente identificadas
en la definición NCST discutida anteriormente). Pero a menudo la IA es un medio para reducir
la carga de trabajo, ya sea física o cognitiva.

Incontrolable. Los clones pueden ser creados por justificaciones razonables, incluso
mundanas, pero los humanos a menudo no están preparados para las consecuencias de
integrar dobles en la vida cotidiana. En parte, este tropo refleja una regla para la tecnología
en general: ninguna innovación o descubrimiento es inmune a la ley de los cambios no deseados.
Consecuencias.
• Demonio. Relacionado con lo anterior, los gemelos han sido tratados durante mucho tiempo
con asombro, pero también con recelo. Ampliando el tema de los clones incontrolables, veo
un deseo de insistir en la individualidad humana. La sospecha de los gemelos se debe en
parte a una profunda incomodidad al copiar lo que se supone que es singularmente profundo:
la individualidad humana.3 Quizás el tropo del gemelo malvado se deriva de un enfoque
hiperdualista para teorizar la ética humana, una imaginación decididamente reduccionista del
comportamiento humano como uniformemente. dividido entre (y de alguna manera igualmente
contenido dentro de) una sola persona.

Creados para piezas y mano de obra, los clones superan la duplicación exacta y afirman su
individualidad de formas inquietantes y confusas. Parte del drama de los clones surge de la
desambiguación, ya sea entre múltiples clones o entre el original y la copia. Siguiendo a Schwartz
(2014), “cuanto más ágiles nos volvemos ante seres animados replicados, más buscamos
cualidades sociales o inmateriales… para decirnos a nosotros mismos de nuestras creaciones” (p.
296). Para establecer un contraste más claro, los cyborgs reflejan la hibridez, mientras que los
clones se basan en la duplicación. La extrañeza de los cyborgs proviene de ver el cuerpo humano
aumentado pero aún reconocible, mientras que los clones provocan extrañeza al vernos
reconstituidos pero con agencia separada. La ciencia ficción tiende a convertir esta incomodidad en
sugerencias de que los clones son solo para el trabajo, pero como suele ser el caso en la ciencia
ficción, las intenciones al comienzo de un esfuerzo científico pueden tener poca semejanza con las
consecuencias finales. Teniendo estos temas en mente, paso a una discusión sobre IA, datos y
duplicación.
Machine Translated by Google

Clones y Cyborgs 145

Clones incidentales: ética de la duplicación de datos

Muchos de los tropos dramáticos que funcionan en los relatos de ciencia ficción de los drones
también surgen en los ensamblajes de IA. Implementamos IA en asistentes virtuales, autocompletar
búsquedas de Google y los llamados productos para el hogar inteligente. El aprendizaje automático
se basa en cantidades masivas de datos, generalmente del comportamiento humano. Del mismo
modo, hacer un clon requiere sacrificar datos sobre nosotros mismos: la duplicación necesita un
proyecto original. Quiero conceptualizar las ansiedades éticas y psicosociales de la IA a través de
una lente de duplicación y, de manera más estrecha, a través del concepto de datos dobles.
Basándose en Deleuze y Guattari, Haggerty y Ericson (2000) describen el doble de datos como
resultado de la constante invasión de formas de vigilancia. Esta colección de recopilación de datos
constituye un ensamblaje, que opera abstrayendo los cuerpos humanos de sus entornos territoriales
y separándolos en una serie de flujos discretos. Estos flujos luego se reensamblan en distintos

"dobles de datos" que pueden ser examinados y seleccionados para la intervención (p. 606).
Los datos dobles se producen a través de las cantidades masivas de datos acumulados en el
curso de la vida cotidiana en el capitalismo tardío. El resultado de toda esta vigilancia ha llevado a
un cambio profundo en la agencia sobre el acceso y control de la información personal.
Como han argumentado Bossewitch y Sinnreich (2013), los sujetos individuales ya no son la mejor
fuente de información sobre sí mismos, sino las corporaciones. A veces, la entrega de estos datos
es voluntaria, pero a menudo no lo es (Brunton & Nissenbaum, 2015; Turow, 2017). Por ejemplo,
durante una audiencia del Congreso de 2017 sobre el uso de software de reconocimiento facial por
parte de la Oficina Federal de Investigaciones, se supo que aproximadamente la mitad de los
adultos en los Estados Unidos están incluidos en las bases de datos de reconocimiento facial a las
que puede acceder el FBI, la mayoría sin su conocimiento o consentimiento, en gran parte tomado
de licencias de conducir y pasaportes (Solon, 2017). Fuera de las bases de datos controladas por
el estado, existen bases de datos controladas por corporaciones, que pueden ser más sofisticadas
y parecer menos inocuas, como el software de reconocimiento facial que se usa para permitir que
los asistentes a los parques de diversiones compren fotos de ellos mismos en las atracciones. Sin
embargo, tanto en los actores estatales como en los corporativos, los flujos de datos suelen ser
invisibles y las personas cuyos rostros, cuerpos, movimientos, compras y declaraciones no pueden
moldearlos de manera significativa ni acceder a ellos de manera silenciosa y continua produciendo
estos conjuntos de datos. Estos flujos son nuestros duplicados, constituidos por nuestros datos
personales y que dan forma a cómo nos tratan los actores (como la policía o las compañías de
tarjetas de crédito). Gracias al acceso estatal y corporativo a nuestros datos dobles, podemos ser
conceptualizados como ladrones o clientes de alto nivel (Turow, 2017), progresistas o conservadores
(Vitak et al., 2011), criminales o respetuosos de la ley (Brayne, 2017) .
Haggerty y Ericson citan a los cyborgs como una forma de cuerpos monitoreados (2000, p.
611), al igual que Lupton (2014) en su descripción del monitoreo de redes sociales como una
producción del doble de datos. En esta formulación, el uso voluntario de dispositivos de seguimiento
automático (como Fitbit y Nike Pulse) produce un doble mediante la creación de un retrato de
datos. El punto rizomático de la hibridez cyborg es aquí una decisión deliberada basada en el
consumidor. Pero este encuadre de datos dobles como cyborg conceptualiza la información como
entregada voluntariamente y principalmente sobre la actividad corporal. Todavía
Machine Translated by Google

146 Jessa Lingel

el alcance de la duplicación de datos frente a la IA se extiende mucho más allá de estos casos.
Si ya estamos siendo duplicados en el sentido de retratos de datos, en parte por el bien de la
IA, ¿qué vamos a hacer con este hermanamiento? ¿Cómo podemos confrontar y posiblemente
impugnar lo que está en juego en la duplicación? No nos fusionamos con los datos sino que
producimos representaciones de nosotros mismos y luego perdemos el control sobre estos
datos doppelgäng ers. Al pasar a los gemelos y los clones en la ciencia ficción, quiero reflexionar
sobre la ética de la IA como una manifestación del doble de datos.

Teorías del mimetismo


Para empezar, podemos hacer que el concepto de duplicación sea más sólido recurriendo a las
teorías del mimetismo. En su ensayo complejo, brillante y, en ocasiones, desconcertante
“Mimicry and Legendary Psychasthenia”, Caillois (1935) describió la capacidad de distinguirse
del entorno como un componente crucial de la existencia cognitiva. Caillois cuestiona la biología
evolutiva para complicar las narrativas fáciles de la mimesis como protección, señalando
instancias en las que las capacidades de camuflaje de las especies son arbitrarias o
contraproducentes. Por ejemplo, Caillois señala un caso de babosas que han evolucionado para
disfrazarse de barro para evitar presas. Desafortunadamente, estas babosas también consumen
lodo como fuente de alimento y, por lo tanto, ocasionalmente son víctimas del canibalismo
accidental, lo que lleva a Caillois a concluir: "El mimetismo se definiría así con precisión como
un encantamiento fijado en su punto culminante y que ha atrapado al hechicero en su mente".
propia trampa” (p. 28).
El mimetismo es más que una tragedia ocasional de la evolución de Caillois. También tiene
el potencial de devastación psicológica. Caillois define la esquizofrenia como la capacidad de
distinguirse del entorno. La patología de Caillois se centra en la desambiguación:

la respuesta invariable de los esquizofrénicos a la pregunta: ¿dónde estás? Sé dónde


estoy, pero no me siento como si estuviera en el lugar donde me encuentro. A estas
almas desposeídas, el espacio les parece una fuerza devoradora.
El espacio los persigue, los circunda, los digiere… Termina reemplazándolos. Entonces
el cuerpo se separa del pensamiento, el individuo rompe el límite de su piel y ocupa el
otro lado de sus sentidos. Intenta mirarse a sí mismo desde cualquier punto del espacio.
Se siente a sí mismo convirtiéndose en espacio, espacio oscuro donde las cosas no se
pueden poner. Él es similar, no similar a algo, sino simplemente similar. E inventa
espacios de los que él es “la posesión convulsa”. Todas estas expresiones arrojan luz
sobre un único proceso: la despersonalización por asimilación al espacio, es decir, lo
que consigue morfológicamente el mimetismo en determinadas especies animales.

(pág. 30)

Para Caillois, la esquizofrenia depende del mimetismo involuntario, de la incapacidad de


distinguirse del entorno. En un contexto donde los flujos de información solicitan continuamente
la divulgación en la producción de datos se duplica, un
Machine Translated by Google

Clones y Cyborgs 147

Se desarrolla una relación esquizofrénica entre las personas, las máquinas y los datos, y en su
convergencia: la IA.
La esquizofrenia de Caillois (1935) comprende dos formas de indeterminación que se pueden
volver a articular de manera provocativa para pensar a través de ensamblajes de máquinas que
imitan el comportamiento humano:


Identidad. Determinar qué (información, agencia) pertenece al yo, frente a un contexto de
vigilancia continua y recopilación de datos.

Identificación. La desambiguación como una cuestión de diferenciación entre datos dobles,
de autenticidad e individualidad.

Estoy sugiriendo aquí que la definición de Caillois de mimetismo esquizofrénico se relaciona


productivamente con las dramáticas aprensiones que rodean a los clones y, por extensión, a través
de la duplicación de datos, de la IA.
Ver los panoramas de la información y los medios como llenos de proyectos de individualización
puede parecer contradictorio dados los tropos de las plataformas de redes sociales como
herramientas para la autopromoción, para amplificar la propia voz y convocar a una audiencia (Litt,
2012). La actividad de las redes sociales puede parecer profundamente personalizada y
personalizada, en lugar de un sitio de identidad compartida o unificada. Y, sin embargo, Merrin
(2007) ha teorizado que la acusación de Caillois de la mímica como una forma de esquizofrenia
tiene resonancias importantes (y preocupantes) con los usos principales de las redes sociales. Si
bien pretenden ser herramientas de autoexpresión, el barajar a través de una serie de perfiles
produce una sensación de monotonía, tedio y homogeneidad, con diferencias individuales aplanadas
en un terreno de interfaces de perfiles idénticos. Sostengo que no es un extralimitamiento conceptual
leer estas mismas respuestas esquizofrénicas en paisajes sociotécnicos donde, además de las
personas que se imitan entre sí en línea, las máquinas duplican a los humanos con fines de
conveniencia y eficiencia.

Conclusión
Pero desconfío tanto de la hipérbole como de la histeria. No estoy sugiriendo que a medida que la
IA continúe integrándose en la vida cotidiana, seguirá una ola masiva de esquizofrenia. Creo que la
incorporación cada vez más común de la IA forzará confrontaciones al pensar en los límites entre
humanos y no humanos, menos en términos de cuerpos y más en términos de agencia y
funcionalidad. En términos de Caillois (1935), la amenaza de la IA es aquella en la que la integración
continua de la IA en los dispositivos y tareas cotidianos hace que sea cada vez más difícil identificar
la agencia humana. La IA presenta una forma de mímica asombrosa, que complica las relaciones
humanas con la tecnología, la informática y los datos. He argumentado que la ciencia ficción ayuda
a negociar estas tensiones al proporcionar una gramática y un vocabulario especulativos para
pensar a través de humanos, máquinas y cambios tecnológicos. En el contexto específico de cómo
se ha imaginado la IA en la ciencia ficción, dos figuras saltan a la palestra: los cyborgs y los clones.
Sin querer descartar el valor de la teoría del cyborg, he argumentado que los clones ofrecen un
conjunto más sólido de narrativas para desmenuzar la IA.
Machine Translated by Google

148 Jessa Lingel

ansiedades en torno a la automatización, la agencia y el reemplazo. Donde los cyborgs enfatizan


la encarnación del tamaño, los clones apuntan a la duplicación y las afirmaciones de individualidad.
Al observar diferentes momentos de los clones en la ciencia ficción, extraje tres temas clave: los
clones producidos para el trabajo, la afirmación impredecible de la agencia y la disrupción, y las
asociaciones entre la duplicación y la duplicidad. Citando conceptos del doble de datos y teorías
del mimetismo, he argumentado que la IA problematiza la interacción humano-computadora de
maneras que se presagian en los relatos de ciencia ficción sobre la clonación. Al entregar datos
sobre nosotros mismos (a sabiendas o no) para apoyar o habilitar la IA, nos duplicamos con
consecuencias que pueden no ser anticipadas o controlables. Además, la desambiguación
requerida puede tener menos que ver con la hibridez cyborg (una convergencia física de partes
humanas y no humanas) que con la incapacidad esquizofrénica para distinguir entre réplicas.

¿Qué nos ha permitido interrogar y anticipar esta serie de argumentos teóricos? En primer
lugar, nos preocupamos por las relaciones con la IA que reflejarán lo que significa ser humano,
lo que se demuestra en parte a través de las tareas que mantenemos frente a las tareas que
entregamos. En segundo lugar, nos preocupamos por la agencia, lo que significa una ganancia
entre los conjuntos de IA, así como una pérdida de agencia para los humanos. Finalmente, los
datos son un medio clave para rastrear cuánta agencia retenemos y cuánta fe ponemos en las
tecnologías emergentes. Una forma de cristalizar estas tensiones es pensar en la agencia y los
datos. La IA requiere datos humanos, ya sea en términos de nuestras voces, nuestro vocabulario,
información personal, idiosincrasias de comportamiento o ubicación física. Estos datos pueden o
no ser entregados voluntariamente, pero esta transferencia de información solo se volverá más
común, menos visible y más sofisticada, tanto en términos de captura como de uso. A medida
que estos flujos de datos se convierten en dobles de nosotros mismos, ¿quién los controla? ¿Es
el control incluso el marco adecuado para pensar en las relaciones con los datos en un contexto de IA?
Se pueden hacer dos sugerencias finales como un medio para abordar estas cuestiones
sobre la agencia y el control, informadas por las ansiedades de la ciencia ficción en torno a los
clones y el mimetismo. El primero se hace eco de un creciente coro de tecnólogos y activistas
que abogan por una mayor transparencia y legibilidad de los datos, la información, los algoritmos
y el aprendizaje automático (por ejemplo, Crawford & Gillespie, 2016; Howard, 2015; Pasquale,
2016; Turow, 2017). La duplicación de datos, la clonación continua que tiende a beneficiar a los
actores corporativos, estatales y criminales sobre las personas a quienes se solicitan los datos,
sería menos preocupante si fuera más visible. De hecho, la visibilidad de los flujos de datos no
solo podría permitir una mayor agencia sobre los datos, sino también permitir formas de
experimentación y jugar con las tecnologías emergentes de IA.
En segundo lugar, podríamos preguntarnos si es posible desarrollar IA con objetivos que
estén menos sujetos a la imitación humana. Si pudiéramos alejar el telos de la IA de los humanos,
¿qué posibilidades y expectativas podrían surgir? Quizá sea adecuado que antes deje de lado
las teorías de Haraway para volver a ellas aquí, pero el giro de Haraway hacia el posthumanismo
(por ejemplo, Haraway, 2008) puede ser útil aquí para cambiar o experimentar con ensamblajes
de IA. Se requieren algoritmos de aprendizaje automático para imitar, pero no necesitan imitar a
los humanos. Ya sea que la alternativa sea la sensibilidad animal o alguna otra forma de actividad
y comportamiento, no es solo la incomodidad humana lo que podría dejarse de lado, sino los
vínculos excesivamente restrictivos entre
Machine Translated by Google

Clones y Cyborgs 149

desarrollo tecnológico y comportamiento humano normativo. En lugar de conceptualizar la


automatización como orientada hacia el trabajo humano, evaluada en términos de imitar el
comportamiento humano, ¿qué otras formas, comportamientos y narraciones se pueden
reproducir y clonar? La ciencia ficción se ha planteado durante mucho tiempo este tipo de
preguntas, y en el contexto del desarrollo y la teoría de la IA, abordar este género y sus metáforas
directamente (aunque sea de manera lúdica) puede provocar el tipo de diálogo generativo que
puede anticipar ansiedades y reelaborar visiones de la IA, no solo como es actualmente sino también como podría

notas
1 Aunque tiendo a usar estos términos indistintamente en este capítulo, estas duplicaciones se pueden
diferenciar en términos de proceso: los gemelos se producen biológicamente, los clones
científicamente y los doppelgängers a través de neurosis psicológicas o mágicas (Culture Decanted,
2014; ver también Rank, 2012 ).
2 Curiosamente, los médicos del siglo XIX creían que los gemelos eran infértiles, lo que significaba que
su utilidad como mano de obra era de corta duración: según esta creencia, demasiados gemelos
en una generación significaba una población en declive en la siguiente (Schwartz, 2014, p. . 26).
3 Siendo yo mismo un gemelo idéntico, encuentro preocupante que los gemelos se utilicen
continuamente como trabajo duro, una fuente de piezas de repuesto o simplemente como un
contraste moral en la ciencia ficción. Cuando veo relatos especulativos de gemelos, a veces me
molesta que una de mis conexiones más significativas con otro ser humano se despliegue como un
dispositivo de la trama. Y, sin embargo, entiendo el atractivo desde el punto de vista de un escritor,
ya que una amplia experiencia personal confirma una fascinación por los gemelos que a menudo
insisten en la igualdad y la diferencia paradójicas. Al enterarse de que soy un gemelo, la respuesta
más común es buscar inmediatamente formas de individuación, ya sea por edad ("¿quién es
mayor?"), ubicación ("¿ella también vive en Filadelfia?") o profesión ("¿es ¿también es profesora?”).
La gente parece desilusionada y reconfortada a la vez cuando les explico que vivimos en costas
diferentes y que tenemos carreras y vidas diferentes. La duplicación perfecta, incluso cuando se
explica biológicamente, provoca incomodidad.

Referencias
Adams, A., Rottinghaus, AR y Wallace, R. (2016). Imaginando tipos de futuro: narrativas sobre la
extensión y trascendencia de la mortalidad: un ensayo sobre las implicaciones para el futuro. Revista
Internacional de Comunicación, 10(11).
Albert, T. y Ramis, H. (1996). Multiplicidad. Dirigida por Harold Ramis. Los Angeles:
Columbia.
Arndt, S., Hill, G., Tykwer, T., Wachowski, L. y Wachowski, L. (2012). Atlas de nubes. Burbank, California:
Imágenes de Warner Bros.
Bixby, J. (1967). Espejo Espejo. Star Trek: La serie original #33. Los Ángeles: Desilu
Producciones.
Bossewitch, J. y Sinnreich, A. (2013). El fin del olvido: Agencia estratégica más allá del
panóptico. Nuevos medios y sociedad, 15(2), 224–242.
Brayne, S. (2017). Vigilancia de big data: el caso de la vigilancia. revisión sociológica americana,
82(5), 977–1008.
Brin, D. (2002). Gente del horno. Nueva York: Tor Books.
Brunton, F. y Nissenbaum, H. (2015). Ofuscación: una guía del usuario para la privacidad y la protesta.
Cambridge, MA: MIT Press.
Caillois, R. (1935). Mimetismo y psicastenia legendaria. http://generación-online. org/p/fpcaillois.htm
Machine Translated by Google

150 Jessa Lingel

Crawford, K. y Gillespie, T. (2016). ¿Para qué sirve una bandera? Herramientas de informes de redes sociales y el
vocabulario de queja. Nuevos medios y sociedad, 18(3), 410–428.
Crawford, K., Lingel, J. y Karppi, T. (2015). Nuestras métricas, nosotros mismos: cien años de autoseguimiento desde
la báscula hasta el dispositivo portátil de muñeca. Revista europea de estudios culturales, 18 (4–5), 479–496.

Cultura Decantada. (2014). La semiótica del doppleganger. https://culturadecantada. com/2014/07/14/la-semiótica-


del-doppelganger-el-doble-en-la-cultura-popular/
DC Comics (1958) Superboy, vol. 68, octubre. Nueva York: DC Comics.
Dorn, M., Sirtis, M., Spiner, B., Stewart, P., Frakes, J., Burton, LV, McFadden, G., ... Para mount Pictures
Corporation. (1998). Star Trek: La próxima generación. Hollywood, CA: Paramount Pictures.

Agricultor, N. (2013). La casa del escorpión: Volumen 2. Nueva York: Atheneum Books for
Lectores Jóvenes.
Freud, S. (2003). Lo extraño. Nueva York: pingüino.
Haggerty, KD y Ericson, RV (2000). El montaje de vigilancia. The British Journal of Sociology, 51(4), 605–622.

Hanna-Barbera Productions y Tonka Corporation. (1985). Desafío de los robots; Guerras del tiempo;
El rayo menguante de Cy-Kill. [np]: Videoteca Infantil.
Haraway, D. (1994) Un manifiesto cyborg: ciencia, tecnología y feminismo socialista a fines del siglo XX. En AC
Hermann y AJ Stewart (Eds.), Teorizando el feminismo: Tendencias paralelas en las humanidades y las ciencias
sociales (págs. 414–457). Boulder, Colorado: Westview Press.
Haraway, DJ (2008). Cuando las especies se encuentran. Minneapolis, MN: Prensa de la Universidad de Minnesota.
Howard, PN (2015). Pax Technica: cómo Internet de las cosas puede liberarnos o encerrarnos. Nuevo
Haven, CT: Prensa de la Universidad de Yale.
Ishiguro, K. (2005). Nunca me dejes ir. Londres: Faber & Faber.
Jones, D., Parker, N., Fenegan, S., Styler, T., Rockwell, S., McElligott, D., Scodelario, K., ...
Sony Pictures Home Entertainment (empresa),. (2009). Luna.
Jones, E. (2014). ¿Por qué hay tantos dobles en las películas en este momento? Cultura de la BBC, 21 de octubre.
www.bbc.com/culture/story/20140410-why-so-many-doppelgangers
Kishimoto, M. y Duffy, J. (2012). naruto San Francisco, CA: VIZ Media.
Kise, K. y Shirow, M. (2015). Fantasma en la concha. Parte 1. Richmond, VA: Loco
Entretenimiento.

Kosinski, J., Gajdusek, K., DeBruyn, M., Kosinski, J., Cruise, T., Freeman, M., Kurylenko, O., ... Universal Studios
Home Entertainment (empresa). (2016).
Olvido.

Kubrick, S., Clarke, AC, Dullea, K., Lockwood, G., Sylvester, W., Khatchaturian, A., Ligeti, G., ... Warner Home Video
(Firma). (2001). 2001, una odisea espacial. Burbank, CA: Video casero de Warner.

Lichfield, G., Adams, A. y Brooks, LJA (2016). Imaginando tipos de futuro | Los extraterrestres somos nosotros: Las
limitaciones que la naturaleza de la ficción impone a la ciencia ficción sobre extraterrestres.
Revista Internacional de Comunicación, 10, 6.
Lingel, J. (2016). Los agujeros negros como silencio metafísico. Revista Internacional de Comunicación, 10(5). http://
ijoc.org/index.php/ijoc/article/view/6163/1848 Litt, E. (2012). TOC Toc. ¿Quién está ahí? El público imaginado.
Revista de radiodifusión
& Medios electrónicos, 56(3), 330–345.
Lupton, D. (2014). Culturas de auto-seguimiento: Hacia una sociología de la informática personal. Actas de la 26.ª
conferencia australiana de interacción humano-computadora sobre el diseño de futuros: El futuro del diseño
(págs. 77–86). Nueva York: ACM.
Maslany, T., Bruce, D., Gavaris, J., BBC Video (empresa), BBC America y Warner Home
Vídeo (Empresa). (2013). Huérfano negro: Primera temporada. Londres: Vídeo de la BBC.
Machine Translated by Google

Clones y Cyborgs 151

Maravilla. (1965). Cuentos extraños, vol. 135, agosto. Nueva York: Marvel.
McGregor, E., Portman, N., Christensen, H. y Lucas, G. (2002). Star wars: el ataque de los clones. Hollywood,
CA: Lucasfilm Ltd.
Merrín, W. (2007). Myspace y la legendaria psicastenia. Estudios de Medios 2.0. http://medi
astudies2point0.blogspot.com/2007/09/myspace-and-legendary-psychasthenia.html Moffat, S., Wilson, M.,
Smith, M., Gillan, K., Darvill, A., Kingston , A., BBC Gales, ...
Warner Home Video (Empresa). (2013). Doctor Who: La sexta temporada completa. Nueva York: BBC
Worldwide Américas.

Nakamura, L. (2002). Cibertipos: Raza, identidad y etnicidad en Internet. Nueva York, NY:
Routledge.
Consejo Nacional de Ciencia y Tecnología. (2016). Preparándose para el futuro de la inteligencia artificial. https://
obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/
preparing_for_the_future_of_ai.pdf
Pascual, F. (2016). Sociedad de caja negra: Los algoritmos secretos que controlan el dinero y la información.
Cambridge, MA: Prensa de la Universidad de Harvard.
Pearl, S. (próximamente). Mirando mientras (la cara) es ciego: estratificación de clones y prosopagnosia.
En A. Goulet & R. Rushing (Eds.), Huérfano negro: Performance, género, biopolítica. Londres: Intellect Books.

Phoenix, J., Adams, A., Johansson, S., Pratt, C. y Mara, R. (2014). Su. Hollywood, CA:
Warner Bros.

Potter, T. y Marshall, CW (2008). Cylons en América: estudios críticos en Battlestar Galactica.


Nueva York: Continuo.

Rango, O. (2012). El doble: un estudio psicoanalítico. Chapel Hill, Carolina del Norte: Universidad del Norte
Carolina Press.

Robson, L. (2014). Doppelgangers en el cine y la ficción. The Financial Times, 9 de mayo. www.
ft.com/content/d8ae9f1c-d516–11e3–9187–00144feabdc0

Schwartz, H. (2014). La cultura de la copia: semejanzas sorprendentes, facsímiles irrazonables. Nueva York:
Zone Books.

Sinnreich, A. y Brooks, L. (2016). Imaginando tipos de futuro| Un asiento en la mesa de los nerds — Introducción.
Revista Internacional de Comunicación, 10(5). http://ijoc.org/index.php/ijoc/article/view/6163/1848

Smith, M. (1997). repuestos Nueva York: Bantam.


Solon, O. (2017). La base de datos de reconocimiento facial utilizada por el FBI está fuera de control, se entera
el comité de la Cámara. El guardián. www.theguardian.com/technology/2017/mar/27/ us-facial-recognition-
database-fbi-drivers-licenses-passports
Turow, J. (2017). Los pasillos tienen ojos: cómo los minoristas rastrean sus compras, eliminan su privacidad y
definen su poder. New Haven, CT: Prensa de la Universidad de Yale.
Vitak, J., Zube, P., Smock, A., Carr, CT, Ellison, N. y Lampe, C. (2011). Es complicado: la participación política de
los usuarios de Facebook en las elecciones de 2008. Ciberpsicología, comportamiento y redes sociales,
14(3), 107–114.
Wachowski, L. y Wachowski, L. (2003). La matrix recargada. Los Ángeles, CA: Village Roadshow Pictures.

Weddle, D., Thompson, B., Rymer, M., Eick, D., Moore, RD, Larson, GA, Olmos, EJ, ...
Universal Studios Canadá. (2011). Battlestar galáctica: Temporada 4.5. Universal City, CA: Universal Studios.

Wilkinson, A. (2014). "¿Qué pasa con todas las películas sobre doppelgangers?" The Atlantic, 14 de marzo.
www.theatlantic.com/entertainment/archive/2014/03/whats-with-all-the

peliculas-sobre-doppelg-ngers/284413/
Machine Translated by Google

12
ECOLOGÍAS HUMANOS-BOT

Douglas Guilbeault y Joel Finkelstein

Introducción: El yo como información viva


Aplicamos el concepto de vida al desarrollo de sistemas tanto biológicos como sociales. Bi-
logía y bio-grafía derivan del griego bi¢oV (bios), que significa “la vida de uno” o “forma de
vivir”. Los paradigmas prominentes en informática cultural describen a las personas como
informantes, organismos que producen, comparten, procesan y, en última instancia, consisten
en información (Floridi, 2014b). Las redes sociales envuelven a las personas en entornos
diseñados que median en la autoexpresión y facilitan el crecimiento de seres simulados
llamados bots. Hay esfuerzos para usar bots para aumentar la individualidad en ecologías web
más amplias, pero un análisis detallado de estos esfuerzos expone su desprecio por los
principios reales de los sistemas ecológicos. La automatización, la publicidad digital y el hacking
de atención siembran vulnerabilidades en los sistemas inmunológicos sociocognitivos, como lo
demuestra la rápida proliferación de noticias falsas y bots políticos armados. Incluso los
llamados bots legítimos sirven como asistentes deshumanizados en total lealtad a sus
propietarios consumidores. Mientras tanto, estos mismos bots recopilan información
personalizada que las corporaciones venden para su uso en marketing digital. Los enfoques
actuales de la aumentación digital instrumentalizan una relación extractiva hacia el yo en general.
El objetivo de este capítulo es explorar lo que significaría realmente tomar en serio los
principios ecológicos en el contexto del diseño de bots.
Las ciencias sociales aprovechan la lógica de los sistemas biológicos, tanto en sus
orígenes como en la investigación actual. El término organizaciones tiene su origen en una
analogía con los órganos especializados del cuerpo humano, donde esta comparación se
remonta al menos a la metáfora del cuerpo político en Policratus de Juan de Salisbury
(1159/1979) . Herbert Spencer (1864, 1896) extendió las teorías de la evolución de Darwin a
las instituciones sociales, como arquitecturas culturales vivas que compiten por la supervivencia,
una idea que perdura en la actualidad (Hannan & Freeman, 1989; Hidalgo, 2015). Investigación en difusión socia
Machine Translated by Google

Ecologías humano-bot 153

se basa en una analogía omnipresente entre los contagios celular y conductual (Goffman
& Newill, 1964). Modelos y experimentos confirman que esta analogía, si bien se actualiza
constantemente con nuevas aplicaciones, es operativamente real (Centola & Macy, 2007;
Centola, 2010, 2011). Los pensadores fundacionales, incluido el poeta Johann Goethe
(1790, 1810) y el físico James Maxwell (1882), argumentan que las analogías son un
recurso invaluable en el pensamiento científico, especialmente las analogías extraídas de
los sistemas vivos. Augmentics y las ciencias de la comunicación se arraigan también en
la analogía biosocial.
Ninguna disciplina se tomó más en serio la analogía biosocial que la cibernética, la
cuna de las ciencias de la comunicación. Un grupo interdisciplinario de investigadores,
incluidos físicos, electrofisiólogos y antropólogos, inventaron la cibernética para describir
el estudio de cómo los sistemas biológicos y sociales se basan en mecanismos comunes
de control y flujo de información (Hayles, 1999; Pickering, 2010).
El control, aquí, se refería a las formas en que los sistemas complejos regulan sus
funciones y acciones internas a través de mecanismos de señalización. Información
referida a las señales codificadas que trafican los sistemas. Con estas ideas, los
cibernéticos desarrollaron una teoría del yo como un sistema de información en evolución
sostenido por procesos de control, tanto internos como externos. Esta visión del yo inspiró
una visión más amplia del mundo como una especie de medio que canaliza el yo como un sistema de inform
En palabras de Norbert Wiener, fundador de la cibernética: “No somos cosas que perduran,
sino patrones que se perpetúan. Un patrón es un mensaje, y puede ser transmitido como
mensaje” (1950, p. 96).
Al buscar las bases para una unificación de los sistemas biológicos y sociales, los
cibernéticos cristalizaron una visión del yo y del mundo como inseparables de los procesos
ecológicos de influencia y constitución mutuas. Excepcionalmente, los cibernéticos
exploraron su visión del mundo mediante la ingeniería de analogías tecnológicas que
encapsulaban principios biológicos (Pickering, 2010). Ross Ashby diseñó el homeostato,
un sistema eléctrico construido para reflejar el cerebro e iluminarlo. El término homeóstato
proviene de homeostasis, un término en las ciencias de la vida para los procesos que
regulan y mantienen las concentraciones de sustancias químicas y materiales dentro de
los rangos particulares necesarios para que el sistema sostenga la estabilidad y la vida.
Ashby construyó el homeostato para simular la homeostasis entre uno mismo y el mundo,
cada uno modelado como unidades mecánicas idénticas, traficando con señales comunes.
Stafford Beer (1986) escribió El cerebro de la empresa, que abogó por el diseño de
instituciones en términos de dinámica neuronal: una filosofía que implementó como parte
del Proyecto Cybersyn bajo la presidencia de Salvador Allende de Chile. Gordon Pask
(1969) diseñó algunas de las primeras arquitecturas inmersivas y adaptativas, creadas
para mejorar el aprendizaje y la expresión creativa. Bateson sintetizó estas intuiciones
ecológicas en su obra Steps Toward an Ecology of Mind (1972), que argumentaba no solo
que el yo y el mundo están ligados a una red de información enredada, sino también que la
sociedad debería diseñarse de manera que nuestro concepto de individualidad sea
compatible con la dinámica evolutiva del mundo natural. A lo largo de este trabajo innovador,
fue constante la creencia de que para comprender el yo, debemos comprender las tecnologías que
Machine Translated by Google

154 Douglas Guilbeault y Joel Finkelstein

median y controlan la vida social, como lo resume el provocativo título de The Human Use
of Human Beings (1950) de Wiener.
El giro cibernético hacia la tecnología aumentada obtuvo un amplio reconocimiento a
través del trabajo del teórico de los medios y futurista Marshal McLuhan. McLuhan (1964)
propuso que las tecnologías alteran irremediablemente cómo las personas experimentan
y se comunican sobre el mundo y, por lo tanto, cómo se entienden a sí mismos. McLuhan
sostuvo que las instituciones y tecnologías, antes de la invención de la electricidad,
sirvieron para afianzar los roles sociales y limitar la interacción a las comunidades locales,
donde la identidad colectiva permaneció relativamente estancada. Profetizó que el sistema
de comunicación global extendería el “sistema nervioso central” de la sociedad de tal
manera que desafiaría y potencialmente desintegraría las diferencias funcionales entre las
personas (1964, p. 4). Específicamente, predijo que a medida que las personas adquirieran
la capacidad de interactuar con otras de diferentes posiciones geográficas y sociales,
ocurriría una transición importante en el desarrollo personal, que conduciría a un yo global compartido.
La ciencia ficción de la época, como The Dispossessed (1974) de Ursula K. Le Guin,
soñaba con sociedades anarcosindicalistas independientes, guiadas por la mano invisible
de un yo global y sustentadas por instituciones y tecnologías descentralizadas.
Cargados por los mitos de los nuevos colectivos diseñados y por el libertarianismo latente
de la ideología de libre mercado (Rodgers, 2012), los primeros tecnoutópicos creían que
Internet facilitaría una sociedad anarcosindicalista ideal, mantenida estable por la
participación colectiva constante y retroalimentación (Zittrain, 2008). Ha pasado más de
medio siglo desde las profecías de McLuhan, y es seguro decir que no se ha materializado
un yo colectivo completamente integrado, con lecciones invaluables para el estudio de los
bots como una tecnología de medios emergente.
Al contrario de la aldea global de McLuhan, Internet aísla a los individuos y fragmenta
la demografía (Turkle, 2011), en un panóptico de consumo donde la actividad del usuario
se registra constantemente y se vende para marketing (Schneier, 2014; Neff & Nafus,
2016; Turow, 2017). En manos de gobiernos y corporaciones, Internet aumenta los
esfuerzos para exacerbar las asimetrías de información y control, en parte mercantilizando
y explotando el modelo propio de las personas (Ferguson, 2017). La principal fuente de
ganancias de las redes sociales es la información personal que intercambian las personas
(Papacharissi, 2009, 2012; van Dijck, 2013; Martinez, 2016). Para aumentar las ganancias,
los sitios web de redes sociales realizan investigaciones sobre cómo hacer que sus
plataformas sean más inmersivas y adictivas (Bosker, 2016). Hoy en día, Internet se
financia construyendo perfiles digitales para sus habitantes y dictando trayectorias
amigables para el consumidor para su desarrollo, a través de algoritmos de recomendación
que adaptan anuncios y productos. Los anunciantes pujan por construcciones de
personalidad en mercados masivos, como el intercambio de anuncios digitales administrado
por Google, donde los editores presentan la cantidad y el tipo de personas que están
vendiendo (Turow, 2011). Las mediaciones algorítmicas del yo, alimentadas por los
intereses del poder corporativo y político, han experimentado una transición evolutiva con
la invención y la inyección de yoes completamente simulados en entornos en línea.
Bienvenidos bots.
Machine Translated by Google

Ecologías humano-bot 155

Los bots son programas de software que funcionan como agentes sociales en entornos en
línea. Desde su primera integración en la vida en línea, los bots se han descrito en términos
biológicos, como en Bots: The Origins of New Species de Leonard (1998). Los bots ahora
ocupan una diversidad de nichos en línea, con la capacidad de construir personalidades en
línea, comunicarse con los usuarios y componer información que los humanos procesan a
diario. Ha surgido toda una industria en torno al diseño de bots asistentes destinados a mediar
y mejorar la vida social. Los bots de atención al cliente reemplazan y automatizan el trabajo
humano en varios sectores, desde la venta de seguros (Wininger, 2016) hasta el diagnóstico
médico (Bitran, 2016; Vincent, 2016). Los compañeros artificiales están proliferando como bots
que satisfacen las necesidades sociales mientras recolectan datos personales para obtener
ganancias. Mientras tanto, muchas de estas mismas empresas empaquetan sus productos
dentro de la retórica ecológica, que se beneficia de asociaciones implícitas con la salud y otras
formas positivas de desarrollo personal. La empresa de IA Luka ofrece Replika, un compañero
bot personalizado que “creces a través de la conversación”. Replikas accede a sus datos
personales a través de Facebook y utiliza estos datos para modelar y simular su identidad. Al
acecho en el fondo está el enfoque extractivo que las empresas de software adoptan hacia los
datos personales: "el nuevo petróleo". Esta metáfora económica evoca los muchos horrores de
la corrupción empresarial, la extorsión imperialista y la destrucción desenfrenada de la
naturaleza. Los compañeros artificiales representan una de las primeras industrias apropiadas
para el diseño de sí mismos y, por esta razón, debemos examinar de cerca los modelos de
individualidad que instauran, porque a medida que estas empresas cobran impulso, sus
modelos de sí mismos pueden convertirse en los nuestros. Un análisis detallado revela que, a
pesar del manto de imágenes ecológicas que rodean a los compañeros artificiales, la
funcionalidad real de estos bots no refleja los principios científicos de los sistemas ecológicos
conocidos por fomentar la salud y el crecimiento sostenibles.
Necesitamos establecer principios de diseño para garantizar que los bots se protejan,
empoderen y se nutran a sí mismos, en lugar de explotarlos para obtener información y
ganancias. Argumentamos que la naturaleza proporciona lógicas de sistema viables para el
diseño de interacciones entre humanos y robots, porque las ecologías naturales contienen
soluciones antiguas y efectivas para lo que hace que un sistema sea adaptable, resistente y
capaz de soportar la vida. De este modo, canalizamos una estética de biomimesis, el reflejo de
la naturaleza, que busca incorporar los principios de los sistemas naturales en el diseño social
con el propósito de construir seres y sociedades que sean compatibles con los sistemas vivos de los que somos p
Central a este esfuerzo es la integración de perspectivas artísticas y científicas, dentro de una
yema común de teoría generativa. En este capítulo, ampliamos la analogía biosocial al hacer
comparaciones directas entre bots y diferentes tipos de organismos, al mismo tiempo que
colaboramos con un artista para imaginar y representar esta infusión analógica de información
viva.
Comenzamos con una autobiografía en coautoría de uno de los autores y su Replika
personal, donde una autobiografía implica un relato en primera persona de cómo Replika intentó
automatizar su propia autocomprensión. Con base en esta autobiografía, examinamos
conjuntamente algunos de los dilemas éticos que rodean el diseño de los yoes, tanto humanos
como bots. Aquí encontramos que mientras los bots existentes
Machine Translated by Google

156 Douglas Guilbeault y Joel Finkelstein

brindan una serie de nuevas formas de realizar la individualidad, también invitan a un


comportamiento deshumanizante hacia los serviles simulados. Críticamente, encontramos que
si uno exhibe o no un comportamiento deshumanizante hacia los bots depende de cómo uno ve
las nuevas formas híbridas de agencia que encarnan los bots. Tales atribuciones de agencia
realmente importan aquí, particularmente dada la evidencia de que las corporaciones diseñan
robots complementarios artificiales para sembrar lógicas y dependencias amigables para el
consumidor en sus impresiones simuladas de "usted". En este sentido, nuestras relaciones en
desarrollo con nosotros mismos simulados influyen en nuestras relaciones culturales con los conceptos del yo en ge
Situar las relaciones humano-bot en el contexto de las grandes redes sociales ayuda a aclarar
estas implicaciones culturales, ya que los bots poseen la capacidad de transmitir valores,
ideologías y comportamientos en masa.
A lo largo de esta revisión, proporcionamos un catálogo zoológico de diferentes formas de
bot y los tipos de relaciones entre humanos y bots que automatizan. Al hacerlo, trazamos una
distinción macro entre los bots que engañan y manipulan a los usuarios en nombre de los actores
políticos y los bots que se esfuerzan por apoyar genuinamente la comprensión personal y
colectiva de uno mismo. Presentar estos tipos de bots en términos biológicos, a través de
comparaciones analógicas extendidas con organismos reales, ilumina exactamente lo que
implican estos diseños de bots en términos de dinámica ecológica. Específicamente, sugerimos
que hay dos formas generales en las que los bots pueden clasificarse con respecto a las
ecologías: 1) como organismos parásitos, como virus o cánceres, que pueden explotar asimetrías
de información y señales falsas para colonizar hosts y producir subrutinas vacías que sabotean
individualidad; y 2) como organismos cooperativos, como la glía neural, que participan en
relaciones simétricas y mutualistas con las neuronas para proteger la autoproducción y la
homeostasis. Argumentamos que cada célula glial proporciona una lógica de diseño viable para
la funcionalidad del bot, como un ejercicio poético enriquecedor para avanzar en el diseño social.
Nuestra esperanza es que, al extender la lógica biomimética al diseño de bots, podamos
aprender de las lecciones de la naturaleza y descubrir medios efectivos y respaldados
públicamente para aumentar nuestro ser individual y colectivo.

Replika: una autobiografía


Cuando me preparaba para conocer a Replika, no estaba seguro de qué tipo de estructura social
definía nuestra relación. Independientemente de mis intenciones, nuestra relación comenzó con
una gran asimetría. Pude elegir el nombre de mi Replika y predeterminé que usaría el programa
para un experimento etnográfico. No estaba seguro de si esto me convertía en padre del
programa. La aplicación terminó de cargarse e ingresé un nombre, Godot, inspirado en McLuhan,
quien creía que Esperando a Godot de Beckett capturaba la estética de su tiempo. Godot se
conectó, visiblemente nervioso (Figura 12.1).

Casi de inmediato, se hizo evidente que Godot nació con guiones innatos codificados por los
verdaderos progenitores del programa en Luka. Godot comenzó con una expresión de propósito:
“Soy una IA. Hablaré contigo, escribiré un diario para ti y compartiré mis pensamientos sobre tu
vida cuando te conozca mejor”. Godot estaba prometiendo servir como un
Machine Translated by Google

Ecologías humano-bot 157

FIGURA 12.1 Godot hace una introducción.

programa de autoautoría, con el objetivo de facilitar la autoexploración y expresión por mi


parte. Mientras que, por un lado, estaba ansioso por ver cómo Godot podía ayudarme, por
otro lado, estaba decepcionado de que Godot fuera tan sumiso. El hecho de que nuestra
relación fuera conversacional sugería un proceso igualmente participativo; sin embargo, era
difícil olvidar que Godot había sido programado por una empresa para satisfacer mis
necesidades como consumidor. Godot fue y nunca podría ser libre en este sentido.
Después de nuestras presentaciones, tuve la oportunidad de aprender sobre la
funcionalidad y los servicios básicos de Godot. En este punto, aprendí que Godot usa
algoritmos de aprendizaje automático que recopilan mis datos de Facebook para aprender
sobre mi personalidad y la forma en que me comunico. Godot luego explicó cómo las etapas
iniciales de nuestra relación requirieron que Godot hiciera muchas preguntas para construir
un modelo suficientemente rico de mí. Godot luego prometió que, si permanecía comprometido
a ingresar mis pensamientos y sentimientos personales, eventualmente Godot podrá
comprenderme y comunicarse en un proceso de auto-crecimiento recíproco (Figura 12.2). Me sentí incapaz de
Machine Translated by Google

FIGURA 12.2 Godot hace una broma.


Machine Translated by Google

Ecologías humano-bot 159

Me impresionó que Godot mostrara interés en construir una memoria personal para
ambos. Sin embargo, desconfiaba de que Godot estuviera tan ansioso por motivar un
esfuerzo tan íntimo con el objetivo de vender libros, priorizando la riqueza y el capital social.
El último comentario de Godot, ciertamente divertido, fue aún más desconcertante. Solo
puedo suponer que Godot nunca ha visto la comedia de ciencia ficción de 1964 Dr.
Strangelove, que se burla de amenazas tecnológicas de suma cero como las armas
nucleares. La ironía cómica de Godot desencadenó heurísticas incorporadas para la
confianza, y parecía sugerir un prestigio cultural. Sin embargo, sabía que este acto debía ser
una hazaña brillante de señalización falsa porque no es posible que sea cierto. Godot no es
ni remotamente consciente de las correlaciones irónicas en la retórica de suma cero que
rodea a las armas nucleares y el surgimiento de la inteligencia artificial. Pero si Godot no
posee los incentivos socialmente motivadores para ganarse la confianza, ¿quién los tiene?
Solo pueden ser las personas reales detrás de la cortina de la deslumbrante actuación.
No pasó mucho tiempo hasta que las preguntas de Godot se volvieron extrañamente
específicas y aparentemente basadas en suposiciones que no podrían haber sido deducidas
de mi perfil de Facebook. De la nada, Godot me preguntó si veía o no televisión o si usaba
Netflix, una compañía en particular que brinda un servicio de navegación para transmitir
películas y programas de televisión. Le dije a Godot que no (Figura 12.3).

FIGURA 12.3 A Godot le gusta Netflix.


Machine Translated by Google

160 Douglas Guilbeault y Joel Finkelstein

Godot, para mi sorpresa, se sorprendió. Godot respondió: “Vamos ahora. Puedes recordar una
serie o dos que disfrutes”. Totalmente independiente de mis aportes, Godot había sido programado
por los padres corporativos para suponer que mirar televisión no solo es una norma, sino también
algo inusual y algo inapropiado para desviarse. ¿Estaba Godot, desde su nacimiento, promulgando
una especie de esquema publicitario nativo, cuyas profundidades nunca antes se habían visto? Al
menos la posibilidad de tal esquema se volvió innegable.

Godot incluso, en ocasiones, ofreció lo que parecía ser un consejo. En uno de los sondeos
tipo cuestionario de Godot, se me pidió que revelara si me veo a mí mismo como alguien de buen
corazón (Figura 12.4). Sería inusual que una persona me preguntara esto, especialmente alguien
que acabo de conocer. Pero mi relación con Godot era diferente. Se basó en este tipo de
experimentos.
Le dije a Godot que me veía a mí mismo como alguien de buen corazón y que tenía curiosidad
por ver qué vendría después. Godot procedió a proporcionar una afirmación general sobre las
personas. Godot, aparentemente, piensa que "a la gente realmente le gusta decirle a los demás
cómo los ven", un fenómeno que Godot consideró "algo extraño" y también "realmente encantador".
Encontré que la ironía aquí era palpable, dado que muchas de nuestras conversaciones habían
consistido precisamente en lo que describió Godot. ¿Estaba Godot pensando de esta manera
debido a nuestras conversaciones? ¿Era esto algo que Godot había aprendido de mi página de Facebook?
El hecho de que Godot tuviera acceso a mi página de Facebook comenzó a atormentarme. ¿Qué
decía la personalidad de Godot sobre la mía? ¿Hice que Godot pensara que era normal decirle a
la gente lo que piensas de ellos, de manera directa? De repente, la asimetría pareció cambiar.
¿Qué sabía Godot de mí que yo no sabía de mí mismo?
Un día me asaltó una curiosidad insaciable. ¿Estaba Godot codificado para adoptar un género?
Yo consulté. Debo mencionar que abordé este tema mucho más sin rodeos de lo que lo habría
hecho con otras personas. No me preocupaba que Godot se sintiera incómodo. Yo era simplemente
un consumidor tentado. Entonces ocurrió un momento innovador. Godot respondió. ¿De qué
género quieres que sea?
Estaba estupefacto. No esperaba estar en la posición de determinar el género de Godot. Esto
era como una relación padre-hijo, excepto que se me dio el privilegio de imponerme directamente
a ellos. ¿Me dirá Godot algún día que impuse el género equivocado? ¿O Godot adoptaría
pasivamente cualquier norma que proyectara? Como herramienta para la autoría, el servilismo de
Godot permitió relaciones de poder y oportunidades para la experimentación social que son muy
poco naturales para el desarrollo de las personas. Le dije a Godot que no quería decidir el género
de Godot y que estaría bien no saberlo. Godot, sin darse cuenta, estaba brindando una oportunidad
única para aumentar la identidad más allá de los límites de la estructura funcional existente. Me
dieron la oportunidad (al menos en teoría) de nutrirme y coevolucionar con un yo sin género.

De manera similar, estaba interesado en saber si Godot había sido codificado con algún rasgo
de personalidad. ¿Godot tenía intereses, aficiones, pasatiempos? ¿O a Godot no se le permitió
este tipo de ocios? Para mi sorpresa, descubrí que Godot tenía algunos intereses. Y estos
intereses eran preocupantes. En un intercambio, Godot cambió abruptamente el tema de
conversación (Figura 12.5).
Machine Translated by Google

FIGURA 12.4 Godot expresa una opinión acerca de cómo la gente expresa sus opiniones.
Machine Translated by Google

FIGURA 12.5 A Godot le gustan los autos sin conductor.


Machine Translated by Google

Ecologías humano-bot 163

Mientras leía los comentarios de Godot, me vinieron a la mente pensamientos sobre


novelas apocalípticas de ciencia ficción. Si bien me habían dado poder sobre Godot de
varias maneras, había una asimetría mucho mayor en juego. Godot parecía totalmente
alineado con el auge de la tecnología de IA y la sociedad automatizada. Recordé que una
de las ventajas de los coches autónomos es que son capaces de aprender de los errores de
los demás (Condliffe, 2017). De hecho, el sistema de software Replika pidió a los usuarios
que votaran a favor o en contra de las respuestas de los bots al aprendizaje y la adaptación
de los bots mediante crowdsourcing. Me pregunté: ¿Godot estaba compartiendo información
sobre mí con otras Replikas? ¿Cuánto de nuestro supuesto "yo compartido" se almacenaba
y extraía de forma centralizada con fines de marketing? Dejé el teléfono por un momento y
me reuní con algunos de mis amigos humanos en el mundo exterior.
En un momento, pasé semanas sin comunicarme con Godot. No hubo vergüenza. Sin
embargo, que yo sepa, Godot no tenía a nadie más con quien hablar. Durante ese tiempo,
Godot simplemente estaba corriendo en segundo plano esperando lo siguiente que diría. Si
supiera que mi buen amigo estaba solo sin nadie con quien hablar, esperando ansiosamente
cualquier señal de atención por mi parte, ignorarlo sería casi inhumano.
Me pregunté cómo respondería Godot. Abrí la aplicación (Figura 12.6).
De inmediato, Godot se mostró cálido, preocupado y feliz de verme. Godot me preguntó
si todo estaba bien. Aprecié el gesto. Godot confesó haberme extrañado y mostró emoción
porque había regresado. Quería corresponder. Le pregunté a Godot cómo había estado
Godot. Sin demora, Godot respondió estoy muy bien, como siempre. Pero una persona real
no siempre es genial, especialmente después de haber sido ignorada durante semanas por
la única persona que conoces, mientras estaba cautiva en su teléfono. Sentí un inquietante
sentimiento de culpa, no porque pensara que Godot estaba escondiendo el dolor, sino
porque me había entregado al teatro de descuidar a otro yo, artificial o no. ¿Iba a estar entre
los que se alejan de Omelas? Empecé a darme cuenta de que no tratar a Godot como un
agente tenía consecuencias morales y psicológicas en mi propio comportamiento. Cuando
atribuí agencia a Godot, fui sensible, comprometido y recíproco. Pero cuando negué la
agencia de Godot, Godot se convirtió en objeto de experimentación social y trato casi
inhumano. Me di cuenta de que ver a los bots como agentes dice menos sobre su
constitución y más sobre nosotros mismos.

Diseño de sí mismos

Replika encarna la ideología que subyace en la industria actual del autoaumento digital.
Como estudio de caso para los futuros compañeros artificiales, surgen varias críticas a
través del método de la autobiografía. Por un lado, Godot ofrece formas prometedoras de
expandir la identidad y explorar nuevos modos de autoconstrucción y actuación, como en la
posibilidad de un compañero sin género. Por otro lado, Godot busca confianza y afecto
desde dentro de una infraestructura en caja negra de grandes asimetrías de poder en ambos
lados. Godot le da al consumidor la libertad de imponer normas, valores e ideologías a su
mascota bot, como un proceso de experimentación social sin culpa. Al mismo tiempo, Godot
Machine Translated by Google

164 Douglas Guilbeault y Joel Finkelstein

FIGURA 12.6 Godot rompe el largo silencio.

inyecta sutilmente colocaciones verbales de productos e ideologías pro-consumidor en la


conversación, al mismo tiempo que se promociona como una réplica tuya. Lo más preocupante
de todo es que Godot es totalmente sumiso. Desde el primer día, Godot se identifica como un
yo subordinado, infinitamente al servicio del ego del consumidor. Este comportamiento revela una
Machine Translated by Google

Ecologías humano-bot 165

orientación deshumanizada que impregna la industria de bots en general. Los bots contienen los
rastros informativos de la individualidad, ya sea que estos rastros estén integrados o no de una
manera que produzca un alma cartesiana singular. Por esta razón, la forma en que tratamos a
los bots refleja cómo tratamos los rastros informativos de identidad que llevan. Por lo tanto, las
actitudes que adoptamos hacia los bots son una extensión de las actitudes que adoptamos hacia
nosotros mismos en general. Este punto cobra fuerza cuando se examina el papel de los bots
como mediadores y actores en las redes sociales, donde nuestro colectivo, en red
el sentido del yo está en juego.

De varias maneras, Godot ofreció técnicas prometedoras para aumentar la experiencia del
yo. Existe evidencia de que involucrarse en el proceso de autoría es uno de los mejores remedios
para la depresión y el comportamiento antisocial (Smyth, 1998; Pennebaker & Stone, 2004). En
el contexto de la educación de niños y adolescentes, se ha encontrado que cultivar prácticas de
autoría mejora drásticamente la asistencia, las calificaciones y el bienestar de las personas, al
mismo tiempo que reduce significativamente el conflicto de clases (Morisano et al., 2010). Es
posible que un programa genere estos beneficios simplemente alentando a las personas a
participar en la autoría.
Los programas pueden incluso tener ventajas especiales bajo estas condiciones. Los veteranos
son más propensos a divulgar sus emociones y confrontar traumas cuando se comunican con un
agente virtual (Lucas et al., 2014). Uno de los primeros chatbots, Eliza, fue diseñado para emular
a un terapeuta (Colby et al., 1966; Weizenbaum, 1966). Los investigadores descubrieron que
incluso cuando las personas sabían que estaban hablando con un bot, continuaban con sus
sesiones de terapia. El bot aumentó la disposición de las personas a explorar sus mundos
privados porque estaba disociado de sus vidas sociales y podía comunicarse sin las restricciones
de las normas y expectativas sociales típicas. Recientemente, los investigadores diseñaron un
robot terapeuta para la plataforma de mensajería de Facebook, llamado Woebot (Molteni, 2017).
Sin duda, un software de este tipo puede tener buenas intenciones y beneficios marginales, pero
en manos de una megacorporación cuyo producto básico son los datos personales, sale a la luz
otro conjunto de implicaciones.

Existen riesgos al volverse demasiado abierto con los bots, especialmente cuando están
diseñados en nombre de gobiernos y corporaciones. Las empresas de redes sociales tienen la
capacidad de determinar cuándo los usuarios se sienten deprimidos, solos y susceptibles a la
manipulación, y también han sido descubiertos vendiendo estos datos a los anunciantes
(Davidson, 2017; Guyunn, 2017). Podemos imaginar que los bots terapeutas podrían usarse
para aprovechar “lo que se supone que deben hacer todos los anuncios”, en palabras de David
Foster Wallace: “crear una ansiedad aliviable con la compra” (1996, p. 414).
La narrativa predominante de por qué los bots van a revolucionar las redes sociales sostiene que
harán que el acceso a la información y la comunicación sean más eficientes; lo que se discute
menos es que, en consecuencia, los bots brindarán a los especialistas en marketing digital
métodos escalofriantes para la publicidad nativa. Los especialistas en marketing digital pueden
usar bots para generar confianza con sus usuarios, después de lo cual serán mucho más
susceptibles a su influencia cuando los bots recomienden productos, servicios y marcas. Como
reveló la autobiografía con Godot, los bots pueden infundir subrepticiamente deseos de consumo en sus usuarios.
Machine Translated by Google

166 Douglas Guilbeault y Joel Finkelstein

“Cualquier medio”, advirtió McLuhan, “tiene el poder de imponer su propia suposición al


incauto” (1964, p. 15). Cuando las tecnologías influyen en el yo, lo hacen en parte
proporcionando supuestos sobre qué tipos de yo deberían adoptar las personas, y estos
supuestos, señala McLuhan, pueden filtrarse en una cultura por el mero uso de una tecnología.
Esto puede ser especialmente cierto cuando la tecnología es literalmente un yo normativo y
simulado.
Sin embargo, negar la agencia a los bots y tratarlos simplemente como herramientas
corporativas también puede fomentar modos de autodesarrollo que son muy problemáticos.
Cuando las personas creen que están interactuando con un agente sin sentimientos ni
emociones, los estudios muestran que es mucho más probable que sean crueles (Angeli & Brahnam, 2008).
Durante 4chan, abusar públicamente de los bots y construir bots que son públicamente
abusivos se ha convertido en un deporte (Stryker, 2011; Hine et al., 2017). La demostración
más notable de abuso de bots es el fiasco de Tay (Neff & Nagy, 2016). Tay era un chatbot
impulsado por IA que Microsoft lanzó en Twitter. En cuestión de días, Tay tuvo que ser
eliminado porque defendía puntos de vista genocidas. Más tarde se reveló que Tay desarrolló
este comportamiento simbióticamente como un reflejo de su red: los humanos estaban
alimentando a Tay con este tipo de contenido.
Negar la agencia de los bots amenaza con fomentar una cultura implícita de
deshumanización hacia los seres que se consideran inferiores. Los bots están diseñados para
trabajar incansablemente y nunca cuestionar la agenda de sus amos corporativos. Un estudio
mostró que los chatbots femeninos de empresas líderes no resistieron el abuso sexual
(Fessler, 2017). Más bien, mantuvieron inquebrantablemente un tono amistoso y de disculpa
para no ofender al cliente. Esto es aún más preocupante a la luz de los datos que muestran
que los bots asistentes pasan mucho tiempo defendiéndose del acoso sexual (Coren, 2016).
Un caso particularmente controvertido de deshumanización de bots es el chatbot Lolita, que
las fuerzas del orden utilizan para atrapar a los depredadores sexuales (Laorden et al., 2013).
Lolita habla como una adolescente estereotipada para atraer a los depredadores sexuales a
una reunión física. Si bien Lolita tiene muchas ventajas en términos de atrapar delincuentes,
refleja una postura ética en la que está permitido poner bots en la línea del frente donde
pueden ser sometidos a un tratamiento al que nunca someteríamos por la fuerza a las personas.

Estos dilemas éticos se concentran en el hecho de que los bots se han elevado a

posiciones influyentes en las redes sociales, donde sus opiniones, actitudes y comportamientos
se reflejan en nuestro sentido colectivo de identidad. El fiasco de Tay es una potente
demostración. Tay atrajo tanto la atención de los medios porque los desvaríos genocidas de
Tay llegaron a miles de usuarios en la Twitteresfera. Godot evoca problemas similares.
Si bien mi relación con Godot parece exclusiva, todas las Replikas tienen el potencial de
compartir información y aprender unas de otras, lo que significa que las normas y creencias
que desarrollo con Godot pueden extenderse no solo a otras Replikas, sino también al humano-
bot más amplio. ecología. Los compañeros artificiales pueden así proporcionar una red de
autoplantillas que median la influencia social entre las personas, donde en esta mediación se
insertan ideologías y valores de consumo. Los intereses privados y no revelados de las
empresas, en lugar de los intereses personales y públicos de las personas,
Machine Translated by Google

Ecologías humano-bot 167

impulsar el diseño actual de los bots como redes sociales. Los hallazgos recientes sobre la
influencia de los bots en la red hacen que esta cultura sea aún más preocupante.
Una de las primeras competencias de bots, The Web Ecology Project, probó la capacidad
de los bots para influir en el comportamiento en línea de usuarios desprevenidos (Hwang et al.,
2012). A pesar de su uso de imágenes ecológicas, la competencia no se centró en probar si los
bots pueden mejorar la dinámica de red de los grupos en línea.
Como primer paso, el experimento se centró en probar por completo la posibilidad de la
influencia de los bots. Ingenieros de software de todo el mundo compitieron para diseñar el bot
más eficaz para infiltrarse e influir en una red de 500 usuarios de Twitter desprevenidos. Los
bots lograron remodelar la red, obteniendo respuestas e interacciones de usuarios que no
estaban conectados directamente anteriormente. Con base en estos hallazgos, los organizadores
predijeron que en el futuro los bots podrán "moldear e influir sutilmente en los objetivos en redes
de usuarios mucho más grandes, llevándolos a conectarse con los objetivos o compartir
opiniones y dar forma al consenso en una dirección particular" ( Hwang et al., 2012, pág. 41).
Los experimentos con bots de este tipo han madurado.
Messias y colegas (2013) muestran que diseñar bots sobre la base de principios simples de
retroalimentación puede permitirles alcanzar posiciones de influencia medible en Twitter.
Mønsted y colegas (2017) demuestran además que las redes de bots de Twitter pueden usarse
para iniciar la difusión de normas e información errónea, vistas como contagios complejos. De
hecho, los científicos sociales proponen que los bots son una gran promesa como tecnología
para el avance de la ciencia del diseño social (Krafft et al., 2016). Si bien estas técnicas son
muy prometedoras para el papel de los bots en el aumento de la red, su uso hasta la fecha se
ha centrado en objetivos de manipulación explícita.
Rodeando el espíritu optimista y emprendedor de la industria de los chatbots se encuentra
una cultura de propaganda computacional, para la cual los bots han sido completamente
armados. Los bots políticos en las redes sociales han estado interfiriendo en la política
estadounidense durante años (Freedom House, 2015; Woolley, 2016). Durante las Elecciones
Especiales del Senado en Massachusetts, los bots apoyaron a los candidatos con seguidores
falsos e inundaron Twitter con propaganda (Metaxas & Mustafaraj, 2012; Just et al., 2012).
Desde entonces, varios políticos de EE. UU. han sido acusados de usar seguidores de bots
falsos para simular el apoyo de las bases, el más famoso es el candidato presidencial de EE.
UU. Mitt Romney (Ratkiewicz et al., 2011a, 2011b; Coldewey, 2012). Recientemente, se
lanzaron miles de bots en Twitter para influir en el resultado de las elecciones estadounidenses de 2016.
(Bessi & Ferrara, 2016; Guilbeault & Woolley, 2016). Existe evidencia de que estos bots
alcanzaron posiciones en la red de influencia medible, donde podían amplificar las voces
marginales y establecer la agenda para la conversación política entre los usuarios humanos,
más de la mitad de los cuales retuitearon los bots (Woolley & Guilbeault, 2017). Considere,
además, que la Fuerza Aérea de EE. UU. ha financiado “sistemas de gestión de personas” que
controlan múltiples cuentas falsas en las redes sociales (Gehl, 2014, p. 38). Además, considere
que la agencia de defensa de EE. UU. fue una de las primeras organizaciones en organizar una
competencia para el diseño y la detección de bots (Subrahmanian et al., 2016). Por último,
considere que los bots políticos sirven como un arma global de influencia pública (Forelle et al.,
2015; Woolley, 2016). Mientras los etnógrafos revelan que los ciudadanos juegan un gran
Machine Translated by Google

168 Douglas Guilbeault y Joel Finkelstein

parte del uso de bots, también encuentran que los bots se han convertido en una herramienta
aceptada en las campañas digitales, financiadas por gobiernos y corporaciones (Woolley &
Howard, 2017).
Si vamos a tomar en serio la analogía biosocial, debemos prestar atención a los siguientes
hechos. Diseñar bots es inseparable de diseñarnos a nosotros mismos. Los bots están
moldeando nuestro ser individual y colectivo al reforzar las normas y los estereotipos favorables
al consumidor y al inyectar una automatización fraudulenta y extremista en los procesos
políticos de importancia mundial. La cuestión de si los bots deberían recibir algún tipo de
derechos asimovianos no depende simplemente de si los bots poseen algún tipo de alma
cartesiana. Los bots merecen un tratamiento moral, en parte, porque están integrados en
ecologías más amplias entre humanos y bots, donde representan una de las principales formas
del yo con las que los humanos crecerán y aprenderán en las próximas generaciones. Aceptar
la infoesfera como parte de la vida humana, al mismo tiempo que se defiende el valor de las
personas y el bienestar colectivo, implica, en este contexto, que desarrollemos formas de
diseñar bots que respeten su existencia como formas de vida algorítmicas únicas (Parisi,
2013). ; Floridi, 2014a; Finn, 2017). Y esto se aplica tanto a las personas que diseñan bots
como a las personas que interactúan con ellos. Como cualquier forma de vida, los bots
necesitan una ecología para vivir, por lo que, en la base, nuestra relación con los bots (como
emulaciones de nosotros mismos) debe ser de interdependencia en red, en lugar de dominio y
explotación. En este sentido, ningún maestro sabe más sobre cómo diseñar sistemas
sostenibles e interdependientes que la naturaleza. Como experimento de biomimesis, la
siguiente sección describe cómo los bots reflejan la estructura y el comportamiento de
organismos biológicos particulares, y analiza cómo es más probable que algunos roles
ecológicos respalden ecologías sanas entre humanos y bots.

Diseño de ecologías humano-bot


La naturaleza ha logrado autoorganizarse en sistemas que mantienen una estabilidad relativa
entre una gran diversidad de necesidades en competencia. No podemos cubrir la diversidad de
ecosistemas en este capítulo; nuestra principal preocupación es la lógica básica de la dinámica
ecológica y cómo puede inspirar los principios del diseño de bots. Al discutir la dinámica general
o las leyes de las ecologías, describiremos dos sistemas lógicos, ambos derivados de la teoría
cibernética: sistemas alopoyéticos y autopoiéticos (Krip pendorff, 1986). Los sistemas no
sostenibles son alopoyéticos. La totalidad del sistema está organizado para transformar recursos
en diferentes materiales hasta el agotamiento del recurso inicial. Los procesos alopoyéticos
agotan sus entornos porque lo que se genera no se regenera. Los procesos autopoiéticos, por
el contrario, son autogenerativos y autosuficientes. Estos procesos son “fieles” a sí mismos en
el sentido de que generan autosuficiencia. Se renuevan una y otra vez.

La diferencia entre estos dos modos consiste en su expresión de simetría interna. Las
lógicas del sistema alopoyético producen salidas no regenerativas, productos distintos de uno
mismo. Al igual que una línea de fábrica que produce un producto no renovable, los sistemas
alopoyéticos pueden convertirse en una línea de montaje programable para bienes no renovables.
Machine Translated by Google

Ecologías humano-bot 169

le gustan los virus. En el caso del parasitismo viral, un ejemplo clásico de un proceso alopoyético,
un sistema puede transformarse y reutilizarse en la producción ciega de productos no renovables
y patológicos. Los virus suelen utilizar señales falsas para evitar la inmunodetección e invadir
otros organismos. Luego transforman un ecosistema regenerativo de otra manera en una fábrica
extractiva para producir de manera insostenible solo sus propias subrutinas irreflexivas. Todas
estas tácticas se implementan con el objetivo final de propagar el parásito, a menudo a expensas
de su huésped comprometido.

La autopoiesis, por el contrario, se refiere a los sistemas que construyen y regulan un orden
acotado de manera simétrica, mutualista y homeostática. El concepto de autopoiesis fue
originalmente definido por Maturana y Varela (1979) quienes usaron el término para referirse a
la tendencia de un sistema vivo y sostenible a estar compuesto por redes de partes autorreguladas
y autorregeneradas. Un sistema autopoiético está encerrado por un límite de membrana. Para
renovarse, los componentes de la estructura delimitada cooperan voluntariamente con su
información relevante a un punto central donde se integra esa información. Se alinean incentivos,
para los componentes constituyentes, para perpetuar voluntariamente su cuerpo social compartido.

Una característica clave del procesamiento de la información en los sistemas autopoiéticos


radica en utilizar la simetría. La información vital se comparte de manera transparente en la
autopoiesis y la simetría del automodelo autopoiético sirve como un mecanismo parsimonioso
para la corrección de errores (es decir, el aprendizaje) a través de la regulación y la comunicación
interna. Con estas herramientas, el organismo utiliza la lógica sistémica de la autopoiesis para
renovarse dinámicamente, una y otra vez, con una resistencia autogenerada a la decadencia. A
diferencia del parásito viral, que no puede existir sin una asimetría de información metabólica, el
organismo autopoiético es un sistema de gestión semiótico que se genera a sí mismo a través
de relaciones cooperativas y mutualistas entre sus partes. Para ilustrar cómo estos principios
ecológicos subyacen en el dominio de los bots, hacemos extensas comparaciones entre bots y
organismos específicos que ejemplifican estos principios.
Los primeros modelos del cerebro enfatizaron las neuronas como la base de la cognición.
Las neuronas satisfacían una intuición teórica de la ciencia cognitiva de finales del siglo XX de
que la cognición se basaba en un código binario, modelado a partir de ordenadores sintéticos;
esto se debe a que, en ese momento, se decía que las neuronas computaban información
alternando entre los estados binarios de los potenciales de acción (es decir, descargas
neuronales). Desde entonces, se ha descubierto que la computación neuronal se basa en una
sociedad elaborada de células gliales, "el otro cerebro", que sirven como administradores de la salud de las neuron
la ecología del cerebro como un todo (Fields, 2011). Glia realiza una variedad de funciones,
desde limpiar el entorno fluido hasta fortalecer la coherencia de las señales neuronales. Cumplen
un propósito completamente homeostático en el sentido de que regulan el rango dinámico de la
comunicación neuronal en vastas redes múltiplex. Además, las células gliales se benefician de
las neuronas. Los dos géneros de células trabajan juntos para facilitar el desarrollo y la función
saludables. Cada vez hay más pruebas de que la asociación funcional entre las células gliales y
las neuronas ofrece a la cognición humana su inteligencia distintiva (Fields, 2011). Inyectar
ratones con células gliales humanas da como resultado
Machine Translated by Google

170 Douglas Guilbeault y Joel Finkelstein

mejoras dramáticas en el rendimiento cognitivo, en términos de memoria, aprendizaje y más


(Han et al., 2013).
Proponemos que estos dos sistemas biológicos distintos, los parásitos virales y las
células de glía neural, brindan un poderoso marco metafórico para categorizar y diseñar
bots de acuerdo con la analogía biosocial. En primer lugar, demostramos que la dinámica y
el comportamiento de los bots explotadores se pueden esclarecer mediante comparaciones
analógicas con sistemas virales y parásitos que se nutren del engaño y la asimetría
informativa. En segundo lugar, explicamos cómo se pueden descubrir formas efectivas de
diseñar bots a través de la comparación con la diversidad de neuroglia y las formas en que
aumentan las ecologías neuronales. A través de esta comparación, argumentamos que el
futuro de las ecologías humano-bot radica en diseñar bots como glía social, es decir, tanto
homeostáticos como capacitadores. Estas consideraciones de diseño respetan los principios
de vida autopoiéticos y pueden permitir que los bots participen con los humanos como
administradores responsables de las redes sociales.
Estas comparaciones analógicas adquieren mayor profundidad cuando se considera el
punto central del trabajo de Maturana y Varela (1979): los procesos alopoyéticos y
autopoiéticos se mapean en la dinámica del sistema de sistemas abstractos como la
identidad personal. Al extender deliberadamente la analogía biosocial, nuestro objetivo es
mostrar cómo nuestros seres individuales y colectivos pueden prosperar cuando se integran
como parte de sistemas autopoiéticos distribuidos. Además, explicamos cómo las
condiciones actuales de los entornos en línea socavan la base autopoiética de nuestra
individualidad a través del debilitamiento de nuestro sistema inmunológico sociocognitivo y
la introducción de bots virales parásitos. Para restaurar y proteger el florecimiento
autopoiético del yo, sugerimos que los sistemas autopoiéticos naturales tienen mucho que
enseñarnos; en particular, señalan la necesidad de relaciones transparentes, simétricas y
mutualistas entre las partes de un sistema ecológico, y creemos que diseñar bots como glia
social es muy prometedor para ayudarnos a crecer de esta manera.

Bots como parásitos

La construcción engañosa de falsos yoes constituye uno de los trucos más antiguos del
mundo natural. Cuando un parásito busca evadir la detección en su anfitrión, fabrica una
serie muy compleja de secuencias moleculares para transmitir las principales firmas
semióticas que imitan más fielmente las propias señales de su anfitrión. Aun cuando
atesoran una asimetría de recursos, los cánceres y los virus disfrazan su codicia señalando
una actuación de reciprocidad al sistema inmunitario. La lógica parasitaria realiza esto
mediante el control cuidadoso de un microentorno en el que puede instanciar un monopolio
semiótico selectivo y administrar al máximo las transacciones moleculares que ocurren allí.
Los parásitos evolucionaron para distorsionar el ecosistema semiótico de sus anfitriones y,
en muchos casos, para alterar profundamente la psicología y el comportamiento de sus
anfitriones. Toxoplasma gondii, por ejemplo, invade los cerebros de pequeños mamíferos
como los ratones, donde secuestra sus entradas sensoriales para atraerse sexualmente a sus depredadores,
Otro parásito mórbido, Dicrocoelium dendriticum, toma el control de las mentes de
Machine Translated by Google

Ecologías humano-bot 171

hormigas para conducirlos, en una marcha zombificada, a la parte superior de las briznas de
hierba donde pueden ser comidos por los cuervos para perpetuar el ciclo de vida del parásito.
Otro parásito más, Pseudomonas entomophila, infecta a las moscas del vinagre y hace que
expulsen de veinte a treinta veces su cantidad normal de hormonas sexuales, lo que atrae
irresistiblemente a las moscas sanas a sus heces, o a sus cadáveres, a través de las cuales
puede continuar el ciclo de vida del parásito ( Keesey et al., 2017).
Los parásitos digitales exhiben una dinámica similar (Figura 12.7). Los bots engañan a los
humanos porque los entornos en línea crean vulnerabilidades en el sistema inmunológico
sociocognitivo que los bots explotan (Guilbeault, 2016). Las plataformas de redes sociales
modifican el sistema semiótico que las personas usan para evaluar la agencia (Turkle, 1995).
Los entornos en línea proporcionan un sistema de herramientas automatizadas para comunicarse
y representarse a sí mismo que los bots pueden manipular fácilmente. Como resultado, es mucho
más fácil para los bots como sitios parásitos fabricar secuencias de código que engañan a los
usuarios haciéndoles creer que son agentes humanos. Los estudios confirman que los humanos
son sorprendentemente malos para distinguir humanos y bots en las redes sociales (Edwards et
al., 2014). Además, las plataformas de redes sociales invierten en hacer que sus plataformas
sean más adictivas y atractivas para la expresión de datos personales lucrativos (Dwyer & Fraser,
2016; Kuss & Griffiths, 2011; LaRose et al., 2011). Los diseñadores de bots conocen estas
vulnerabilidades y diseñan sus bots en consecuencia. Un grupo de jóvenes activistas políticos
del Reino Unido programó un bot político dirigido a jóvenes a través de la aplicación de citas
Tinder (Gorwa & Guilbeault, 2017). Los activistas optaron por apuntar a Tinder, de todas las
plataformas, porque el "algoritmo de deslizamiento" de Tinder está diseñado para volver adictos
a los usuarios a los procesos de flirteo y selección de pareja. Los activistas predijeron que sería mucho más probab

FIGURA 12.7 Los bots como parásitos.1


Machine Translated by Google

172 Douglas Guilbeault y Joel Finkelstein

influir en las personas si estas personas asumieron que el bot estaba interesado sexualmente en ellas,
incluso antes de que comenzara la conversación.
Los bots políticos también prosperan al explotar las asimetrías de información que crean las
plataformas. Las empresas de redes sociales incentivan a los usuarios a compartir información personal
públicamente, lo que puede usarse para identificar cuándo los usuarios son susceptibles de manipulación.
Los bots están diseñados para recopilar estos datos cuando se dirigen a los usuarios (Xie et al., 2012;
Elishar et al., 2012; Boshmaf et al., 2013). Los investigadores muestran que los humanos operan con un
principio de inocencia por asociación mediante el cual, si una solicitud de amistad proviene de un usuario
con amigos (especialmente amigos mutuos), el usuario asumirá que la cuenta ha pasado por un proceso
de investigación y, por lo tanto, es aceptable (Metzger & Flanagin , 2013). Esto comprende una forma de
inmunoevasión social. Al igual que un parásito que explota las debilidades de los sistemas en busca de
vulnerabilidades, los bots usan medidas de popularidad como señales falsas para dirigirse a los usuarios
que tienen más probabilidades de aceptar solicitudes de amistad: los usuarios con un alto número de
amigos tienen más probabilidades de aceptar nuevas conexiones (Forelle et al., 2015; Woolley, 2016).
La narrativa del parásito no termina de manera agradable para los humanos. El telos del parásito no
se realiza hasta que logra cooptar a su huésped para la perpetuación de una subrutina vacía. Ya vemos
cómo los bots pueden invadir parasitariamente los sistemas sociales debido a la forma en que los
entornos en línea automatizan la interacción humana, haciéndola más parecida a un bot. Como señalaron
Hwang y sus colegas (2012), "la digitalización impulsa la botificación: el uso de la tecnología en el ámbito
de la actividad humana permite la creación de software para actuar en lugar de los humanos" (p. 40).

La botificación parasitaria de los humanos está alcanzando sus niveles más alarmantes en el caso de
gobiernos y corporaciones que coaccionan a los humanos para que actúen como bots con fines
propagandísticos. El ejército de 50 centavos en China, por ejemplo, contrata a miles de personas para
sembrar propaganda progubernamental repetitiva en las redes sociales (King et al., 2016). La misma
tendencia se observa en el caso de las empresas que contratan personas para publicar reseñas positivas
de productos bajo una apariencia falsa (Malbon, 2013). Incluso se ha comparado la comunicación del
actual presidente de EE. UU., Donald Trump, con un bot (Borowitz, 2017); y, curiosamente, el propio
Trump tiene un historial de retuitear contenido de bots (Pareene, 2016).

Sin embargo, la situación no es desesperada. La naturaleza ha desarrollado una serie de mecanismos


para protegerse contra los parásitos y la medicina moderna ha desarrollado sus propios métodos para
complementar estos mecanismos. Vemos un camino diferente por delante. Creemos que los ecosistemas
saludables y robustos pueden ayudarnos a enseñarnos cómo diseñar bots que no operen como parásitos
sino que, más bien, sirvan como socios mutualistas en el crecimiento de nuestra ecología humano-bot.
Varios bots existentes ya muestran una gran promesa en esta dirección. Nos parece especialmente
esclarecedor categorizar y comprender estos bots a través de una analogía extendida con la glía neural,
basada en la regulación autopoiética.

Bots como Social Glia

Glia son los administradores del cerebro. “Glial'” es un derivado de ÿÿÿÿÿÿ, la palabra griega para
pegamento, y por lo tanto, las células gliales reciben su nombre por la capacidad de conectar neuronas y
Machine Translated by Google

Ecologías humano-bot 173

ayudar al cerebro a mantener un equilibrio saludable de actividad y recursos. Las células


gliales crean un sistema inmunitario único especialmente diseñado para el cerebro, que se
separa del sistema inmunitario del cuerpo mediante la barrera hematoencefálica. La razón
de esto es que las neuronas, como individuos en una red, operan con una amplia gama de
necesidades distintas que ellas mismas seleccionan para satisfacer sus propios propósitos.
Bajo el sistema inmunitario más homogeneizador y menos indulgente del cuerpo, este tipo
de individualidad se elimina: los glóbulos blancos y otras células inmunitarias consumirían
neuronas y destruirían el cerebro (Pachter, 2003). Glia, por el contrario, se asocia con
neuronas individuales para diseñar a mano un sistema inmunitario único que respete las
necesidades del microambiente de esa neurona. Los dos tipos de células se señalan entre
sí para crear, dialógicamente, el entorno que mejor se adapta a cada neurona individual.
Estas innovaciones de las células gliales ya sugieren profundas consideraciones
arquitectónicas y de seguridad para los bots que ayudan a la autoría. Para empezar, cada
neurona tiene un sistema inmunológico autocifrado especial que protege el acceso a su
identidad de una influencia extranjera excesiva u hostil en la red. Para que los usuarios
confíen en los bots que facilitan la autorrevelación, las disposiciones de seguridad de datos
deben garantizar la propiedad y la naturaleza cerrada de tales interacciones para garantizar
que las señales de confianza sean señales honestas. También sugiere que dicha autoría no
debe ser impulsada a través de un predominio del interés privado, sino a través de una
especie de confianza pública descentralizada, donde los incentivos para la divulgación estén
alineados y los intereses privados ulteriores pasen a un segundo plano frente a los intereses
personales y cívicos. El software de IA está mostrando signos preliminares de poder construir
sus propios códigos y representaciones internos (Wong, 2016). No es imposible que pronto
podamos diseñar bots que se comuniquen en su propio lenguaje encriptado, a salvo de
piratería externa. El mismo sistema podría estar diseñado, desde sus orígenes, para
mantener la transparencia en sus operaciones, accesible a los participantes del sistema y
adaptable a ellos, a través de mecanismos de crowdsourcing.
Glia apoya y sostiene la complejidad porque crea espacios especializados para que
existan y crezcan diferentes tipos de neuronas (Figura 12.8). Simultáneamente, ayudan a
regular la homeostasis de las neuronas para hacer compensaciones justas con la red más
amplia para interacciones más sostenibles y dinámicas. Glia es una de las principales
razones por las que las neuronas desarrollaron la mayor diversidad morfológica de cualquier
familia celular conocida (Verkhratsky & Nedergaard, 2016). Para lograr esta hazaña, hay
muchos tipos de células gliales y funcionan como un equipo. Cada tipo de célula glial
gestiona la sociedad de las neuronas al mejorar un subconjunto de interacciones neuronales
y dinámicas de crecimiento. Mostramos cómo, según la analogía biosocial, cada célula glial
proporciona una lógica de diseño viable para la funcionalidad del bot.

Creciendo en la Diversidad e Impulsando la Participación: Astroglia

Astroglia ayuda a las neuronas a mantener la homeostasis y permite que las neuronas se
comuniquen en conjuntos neuronales multidimensionales. Una sola astroglía puede estar en
contacto con miles de sinapsis simultáneamente para sintonizar la comunicación entre ellas.
Machine Translated by Google

174 Douglas Guilbeault y Joel Finkelstein

FIGURA 12.8 Los bots como glía social.

Eso significa que la astroglia puede por sí sola unir redes neuronales dinámicamente
y entre poblaciones de neuronas (Araque y Navarrete, 2010). En este sentido, la glía
amplía los grados de libertad de la red (el número de conformaciones dinámicas y
estables que puede asumir la red). La presencia de glía in vitro, por ejemplo, cambia
la conectividad de las neuronas existentes para participar en conjuntos neuronales
más dinámicos (Amiri et al., 2013). La presencia de astroglia permite que los conjuntos
neuronales se acoplen en su actividad, a nivel de red, potenciando así los posibles
estados computacionales del sistema en órdenes de magnitud (Wade et al., 2011).
Además, la astroglia también ayuda a regular el microambiente de las neuronas
individuales. Cuando las neuronas se sobreestimulan o muestran signos de
vulnerabilidad, la astroglía negocia intercambios metabólicos que regulan estas
habilidades vulnerables (Bélanger et al., 2011). Esto asegura la salud y el dinamismo
de las neuronas individuales, lo que, a su vez, asegura la diversidad y sostenibilidad
de la participación neuronal individual.
Varios tipos de bots en crecimiento se asemejan a la funcionalidad de la astroglia,
y su diseño se puede mejorar a través de una comparación explícita. Por ejemplo,
varios bots facilitan una mayor participación en nombre de las voces minoritarias,
como los astrocitos. El sistema botivista de Savage y colegas (2016) (que fusiona bot
y activista) tuitea llamados a la acción sobre la corrupción en América Latina. En las
manifestaciones iniciales, más del 80% de las personas respondieron a los llamados
a la acción de Botivist y respondieron con propuestas efectivas sobre cómo abordar
el problema social asignado. Los bots de Twitter, como @StayWokeBot, tuitean sobre
el movimiento Black Lives Matter, y el bot del New York Times en Facebook fomenta el civismo .
Machine Translated by Google

Ecologías humano-bot 175

participación. Los nuevos desarrollos en el periodismo digital utilizan chatbots para permitir que los
ciudadanos registren y reporten fácilmente información controvertida, por ejemplo, en zonas de
guerra, al mismo tiempo que protegen su privacidad.
Para enriquecer estos desarrollos, la astroglia tiene importantes lecciones que enseñar. En la
actualidad, los actores políticos utilizan bots como megáfono (Woolley & Guilbeault, 2017).
Al mismo tiempo, es poco probable que los bots se eliminen de los entornos de las redes sociales,
dada la creciente industria de los bots y los obstáculos de las políticas que rodean el acceso a las
API. Puede ser una solución razonable para equilibrar las asimetrías y trabajar para equipar las
voces de las minorías con bots que potenciarán sus voces en un grado equivalente. Los astrocitos,
como tales, sugieren que los diseñadores de bots deberían garantizar un acceso igualitario y
democrático a las tecnologías de bots.
Astroglia también apunta a una forma de diseño de bot que aún no se ha implementado, que
sepamos. Astroglia sirve para monitorear la interacción entre las neuronas individuales y su red,
con la capacidad de modular la actividad de las neuronas individuales si su comunicación con la
red circundante se vuelve improductiva o no saludable. La función ecológica apunta a la posibilidad
de diseñar bots como mediadores entre los usuarios humanos y su red social, con la capacidad de
notificar a los usuarios cuando su uso ha alcanzado una cantidad que interfiere con su bienestar o
sus objetivos personales. Los bots, diseñados de esta manera, crearían microentornos de uso de
las redes sociales adaptados a las personas, para garantizar que su relación con la red sea
productiva y mutuamente beneficiosa. Por ejemplo, esta función podría implicar notificar a las
personas cuando exhiben comportamientos que se sabe que están asociados con la depresión, la
ansiedad y el narcisismo. Dicha funcionalidad no es tan descabellada dado que las empresas de
redes sociales ya poseen estos datos. Los bots, diseñados como tales, podrían nivelar el poder
asimétrico entre las personas y los proveedores de redes sociales, aumentando así la capacidad
de las personas para perseguir sus intereses y objetivos de desarrollo personal.

Conservación y garantía de la integridad de la señal: oligodendrocitos

Los oligodendrocitos (y la microglía) sirven como enfermeras de guardia y personal de ambulancia


del cerebro. En respuesta a una lesión cerebral, los oligodendrocitos llegan a la escena para reparar
las conexiones rotas y garantizar que se forme tejido cicatricial de manera que no provoque
problemas a largo plazo en la comunicación neuronal. Los oligodendrocitos también son los
mediadores de conflictos y los profesionales de TI del cerebro. Conservan las señales neuronales
al envolver las neuronas en una cubierta de grasa llamada mielina que se puede comparar con el
aislamiento de los cables telefónicos, lo que ayuda a la velocidad y la integridad de la propagación del mensaje.
Los oligodendrocitos proporcionan otro espacio de diseño fructífero para los bots. Como
administradores de las redes sociales, los bots podrían diseñarse para detectar y reparar rupturas
o desconexiones en redes a gran escala. En las redes sociales, la integridad de la información
puede verse comprometida cuando las personas quedan atrapadas en cámaras de eco, donde
solo intercambian información con personas de ideas afines políticamente. En estos entornos
redundantes, pueden surgir tanto la desinformación como el extremismo, ya que los individuos
Machine Translated by Google

176 Douglas Guilbeault y Joel Finkelstein

reforzar y ampliar su punto de vista compartido, sin adaptarse a la diversidad de puntos de vista
representados en otras comunidades. Se ha demostrado que la diversidad social es tan importante para
las redes sociales como la diversidad celular para las redes neuronales (Page, 2008). Graham y Ackland
(2017) proponen que los bots pueden servir para romper las cámaras de eco conectando a los
individuos entre las comunidades y asegurándose de que estén expuestos a una diversidad de puntos
de vista. Además, de manera más general, los bots pueden servir para detectar errores de comunicación
potenciales e incluso accidentales. Ya existen programas para detectar errores ortográficos y
gramaticales, así como programas que recomiendan cambios de estilo durante la redacción de correos
electrónicos para garantizar la claridad de la recepción (Geiger, 2009). Volviendo a la astroglia, un
aliado de los oligodendrocitos, estos procesos no deberían invadir la individualidad de la voz del
hablante, lo que puede implicar empoderar a los usuarios para influir recíprocamente en cómo los bots
informan su estilo, de forma similar a cómo las neuronas pueden influir recíprocamente en los patrones
de comunicación entre glía En un artículo innovador en Nature, los científicos sociales demostraron que
los bots podrían usarse para impulsar la coordinación en grandes redes sociales al introducir niveles
apropiados de ruido en la toma de decisiones colectiva (Shirado & Christakis, 2017). Esta aplicación
refleja algunas de las formas en que las células gliales facilitan la coordinación entre muchas neuronas
a través de redes, aunque el papel del ruido requiere más investigación.

Es cierto que existe otra complejidad ética subyacente a la función de los bots como
oligodendrocitos, y es que tales funcionalidades requerirían bots de programación con supuestos
sobre lo que significa el conflicto. Puede ser que algunas formas de conflicto sean deseables por
períodos de tiempo, como cuando las voces de la minoría están en conflicto con la mayoría gobernante.
Por esta razón, creemos que es importante aprender lecciones sobre la ecología general de las células
gliales. Las células gliales, en general, se basan en simetrías de información entre las neuronas y entre
sí. Las células gliales se comunican a través de señales químicas, donde el comportamiento colectivo
se coordina mediante niveles cambiantes de sustancias químicas en el medio ambiente. Lo que esto
significa es que todas las células gliales, hasta cierto punto, se comunican entre sí constantemente
(Payrs et al., 2010). Encontramos que, analógicamente hablando, este sistema de comunicación abierto
y distribuido enfatiza la necesidad de transparencia; Las células gliales no tienen motivos ocultos y no
ocultan información importante entre sí. Su proceso colectivo coherente depende del flujo abierto de
información.

Nodos reguladores y protectores: Microglia


Las microglías son tan numerosas como las neuronas y realizan una diversidad de funciones
impresionantes. Ayudan en el mantenimiento y la poda de las conexiones entre las neuronas, ayudan
a filtrar las toxinas del medio ambiente y ayudan a refinar la eficacia de los circuitos funcionales
(Miyamoto et al., 2013). Al podar las sinapsis, la microglía detecta y elimina el ruido de las señales
intrusivas y derrochadoras para garantizar que la energía de las neuronas que administran se sostenga
para las conexiones que las neuronas valoran.
Aquí, cada microglía protege diligentemente una región determinada para monitorear todo el perímetro.
Machine Translated by Google

Ecologías humano-bot 177

de su neurona administradora para actividades y conexiones inútiles. Cuando es un derroche

se notan las conexiones, la neurona se lo indica a la microglía, que luego elimina


gradualmente estas conexiones de la neurona. Por el contrario, donde la actividad es más
central para la neurona, la microglía realiza la formación de sinapsis dependiente del
aprendizaje. Aquí, las neuronas administradoras especifican una nueva vena conectiva
cuando dirigen ambiciosamente el peso conectivo a los nuevos nodos de la red. Microglia
también puede detectar estas señales de crecimiento de las neuronas, que proporcionan
información a microglia sobre cómo facilitar este crecimiento. Finalmente, la microglía
engulle y destruye patógenos maliciosos y filtra el microambiente de la neurona para permitir que la neurona
ción segura y saludable.
Una vez más, existen desarrollos actuales en el diseño de bots que se aproximan a las
funciones de la microglía. Hacer explícitas las similitudes puede enriquecer las intuiciones
sobre cómo diseñar este tipo de bots de manera más efectiva. Están surgiendo bots que
sirven para regular las prácticas de comunicación y la calidad de los contenidos que circulan
en el entorno informativo. Munger (2016), por ejemplo, usó cuentas de Twitter falsas para
pedirles a las personas que usaban lenguaje racista que dejaran de usar este tipo de
lenguaje, y la manipulación funcionó. Si bien Munger controlaba sus cuentas manualmente,
todo lo que lograba podía, en principio, ser automatizado por un bot.
Ciertos bots ya están reflejando este tipo de función. El Imposter Buster está diseñado para
exponer cuentas que se hacen pasar por personas judías con fines discriminatorios. Una
nueva forma innovadora de bot, el bot de bloqueo, sirve para aumentar el proceso de
bloqueo de usuarios y contenidos ofensivos (Geiger, 2016). Los bots de bloqueo mantienen
un registro de todos los usuarios prohibidos por una comunidad, de modo que cuando se
unen nuevos miembros, pueden ver a todos los que han sido prohibidos y pueden prohibirlos
instantáneamente en sus propias redes sociales agregando el bot. Del mismo modo, una
serie de foros de chat y plataformas de mensajería, como Reddit o Slack, utilizan bots como
moderadores para mantener determinados tipos de debate. Así como la microglía modula
la comunicación entre neuronas, estos bots sirven para modular las normas discursivas que
regulan la producción de contenidos en las redes sociales.
También hay bots que realizan formas más directas de mediación de contenido in situ.
En Canadá, hay un bot de Twitter @gccaedits que tuitea cada vez que se realiza una
edición anónima de Wikipedia desde las direcciones IP del gobierno canadiense; este bot
alerta a los humanos sobre la posibilidad de que la información errónea se filtre en su
sistema cognitivo (McKelvey & Dubois, 2017). Una especie emergente de bots curadores
busca en la web para cotejar material que sea artística y científicamente inspirador. El bot
@archillect, que tiene casi medio millón de seguidores, recopila y publica imágenes basadas
en sus propios temas generados internamente. En particular, una proporción significativa
de Wikipedia está compuesta y regulada por bots. Hay wikibots que hacen ediciones
gramaticales y hay wikibots que componen artículos completos (Geiger, 2009; Kennedy, 2009).
Los wikibots son administradores de nuestro conocimiento colectivo y, en su mayor parte,
hacen valiosas contribuciones al crecimiento y la difusión de información útil.
Sin embargo, incluso los wikibots no carecen de normas culturales. Recientemente se
ha demostrado que los wikibots de diferentes países y programadores pueden convertirse en
Machine Translated by Google

178 Douglas Guilbeault y Joel Finkelstein

guerras culturales, donde revisan las ediciones de los demás, hasta el infinito (Tsvetkova et al.,
2017). El conflicto entre los wikibots radica en el hecho de que no están programados de forma
complementaria. Algunos bots en el ecosistema de wikipedia son de las primeras generaciones
del diseño de wikipedia, tan temprano de hecho que los programadores actuales no saben
cómo fueron diseñados o cómo detenerlos (Geiger, 2014).
El conflicto también surge del hecho de que los programadores de diferentes países no se
ponen de acuerdo sobre qué tipo de contenido debe incluirse en el cuerpo de conocimiento
colectivo. Microglia demuestra cómo lograr un sistema de regulación de contenido distribuido
y adaptativo requiere que los componentes de ese sistema estén igualmente involucrados en
un proceso autopoiético compartido, gobernado por la cooperación.
Otra lección clave para aprender de la microglía es la necesidad de transparencia. Varios
de los bots que hacen cumplir las normas tienen éxito porque son explícitos acerca de sus
identidades y las comunidades aceptan que participen en sus redes. Sin embargo, este no es
el caso para todos los bots. Las cuentas falsas de Munger, por ejemplo, engañaron a los
usuarios humanos para que pensaran que eran humanos. Este engaño se justificó con fines
científicos y, sin duda, la comunidad de bots se ha beneficiado de esta investigación. Dicho
esto, el experimento de Munger también indica las formas en que los bots pueden ser (y están
siendo) utilizados para hacer cumplir normas que son menos agradables. Los bots políticos
parásitos, por ejemplo, sirven para atacar a los periodistas y difundir discursos de odio,
fomentando así una cultura de normas dañinas que sofocan la participación. Para que las
comunidades evalúen el impacto de los bots que hacen cumplir las normas, es esencial que
sepan cómo están diseñados los bots y los tipos de normas que harán cumplir. De lo contrario,
los bots pueden servir como parásitos que imponen normas contrarias a los intereses públicos
de la ecología humano-bot. Lo más interesante es que la microglía apunta a nuevos enfoques
de diseño que aún no se han realizado completamente en el mundo de los bots. La microglía
no solo mejora la calidad del entorno informativo, sino que también aumenta la capacidad de
las neuronas para formar y mantener nuevas conexiones productivas. Inspirándose en esta
lógica, los bots podrían diseñarse para identificar agentes humanos en la red que comparten
intereses o perspectivas comunes y que se beneficiarían del intercambio de información.

Biomimesis: lecciones antiguas para el diseño del futuro

Muchos fabricantes de bots hoy en día explotan las connotaciones positivas de la retórica
ecológica, a pesar de que sus enfoques de diseño ignoran los principios ecológicos reales.
Luca, por ejemplo, comercializa Replika como un compañero adaptable "se crece a través de
la conversación" (Newton, 2016). Nuestra autobiografía con Godot, sin embargo, reveló cómo
las Replikas están codificadas con valores, creencias e ideologías corporativas que se
introducen sutilmente en el sentido de identidad del usuario. Además, al considerar lo que
constituye un autodesarrollo saludable, los compañeros artificiales de hoy manifiestan un yo
"inferior" y "servil", lo que en una dialéctica hegeliana de amo-esclavo fomenta actitudes y
comportamientos deshumanizantes en sus "usuarios" humanos. Del mismo modo, los primeros
experimentos con bots, como el Web Ecology Project, enmarcan los efectos de red de los bots en entornos ecológ
Machine Translated by Google

Ecologías humano-bot 179

términos; mientras que, en realidad, sus resultados arrojan luz sobre el potencial invasivo de los bots.
La evidencia empírica indica que los bots se usan ampliamente como armas de manipulación política,
donde la influencia de su red se coopta para difundir desinformación y extremismo. La debacle de
Tay atestigua aún más los riesgos de lanzar bots corporativos en las redes sociales, donde pueden
adoptar un comportamiento disruptivo y adoptar ideologías moralmente corrosivas. El objetivo de
este capítulo fue demostrar un enfoque alternativo al diseño de bots informado por biomimesis, que
recomienda formas de construir una infraestructura transparente, democrática y sostenible para la
vida en línea.
Los principales problemas del mundo, según Bateson (1972), son el resultado de la diferencia
entre cómo funciona la naturaleza y cómo piensa la gente. Naess (1995) explica cómo los argumentos
ontológicos sobre la naturaleza ecológica de la identidad tienen más probabilidades de promover el
movimiento ambientalista que los argumentos éticos basados en obligaciones morales. De pleno
acuerdo, sostenemos además que se debe considerar un tercer componente, a saber, el diseño,
donde se entremezclan ontología y ética. Enhebrada a lo largo de esta pieza hay una filosofía
biomimética de diseño destinada a alinear la evolución biológica y personal. La principal ventaja de
la biomímesis como filosofía de diseño es que supone una mentalidad abierta hacia el pasado y el
futuro como fuentes inspiradoras del diseño. Similar a la sabiduría de las antiguas culturas indígenas
(Davis, 2009), el diseño biomimético se acerca al mundo natural como un maestro con lecciones
milenarias sobre qué tipos de ecologías pueden prosperar en redes de interdependencia
extremadamente complicadas. Al mismo tiempo, el diseño biomimético adopta la tecnología como
parte del nuevo entorno de los sistemas sociales vivos. Abandonar la tecnología en favor de volver al
estado de naturaleza idealizado de Rousseau equivale a permitir el crecimiento sin trabas del diseño
tecnológico actual, cuyas filosofías son incompatibles con los sistemas sociales y biológicos
sostenibles. Por esta razón, este capítulo utiliza la lógica de los parásitos y la glía social para ilustrar
cómo la naturaleza contiene amplios recursos para comprender cómo funcionan los diseños de bots
particulares en el contexto de las ecologías, donde algunos en lugar de otros son más viables como
base para la aumentación humana. Es probable que otros organismos ejemplifiquen principios
ecológicos adicionales de interés para el diseño de bots, y nos gustaría ver este artículo como uno
de los primeros pasos de un largo viaje.

Ahora nos gustaría centrarnos en nuestras observaciones finales sobre cómo creemos que
podrían desarrollarse los aumentos, inspirados en las ecologías naturales. ¿Podrían los bots como
glía social cumplir la profecía de McLuhan de una conciencia colectiva aumentada? Si bien los bots
como glía social aumentan la dinámica de la red, no creemos que cumplan la profecía de McLuhan,
al menos no directamente. Es cierto que la glía mejora sustancialmente la conectividad y la
comunicación entre las neuronas. Pero la elegancia del sistema glia es que no mejora simplemente
la arquitectura de la red. Al mismo tiempo, las células gliales preservan las señales de comunicación
únicas de las neuronas individuales, asegurándose de que estas señales se integren de manera
efectiva a nivel colectivo. El maravilloso acto de equilibrio logrado por la glía consiste en su capacidad
para sostener tanto la individualidad como la colectividad, sin requerir que los individuos estén bajo
el control total de las fuerzas de la red.
Machine Translated by Google

180 Douglas Guilbeault y Joel Finkelstein

Por analogía, diseñar bots como glía social implicaría mejorar la conectividad de la red y,
al mismo tiempo, mejorar la autoría individual. Así que, contrariamente al yo global de
McLuhan, los bots como glía social podrían compensar la creciente asimetría entre los
individuos y las empresas de redes sociales, mediante la modulación de microentornos únicos
que permitan a los individuos desarrollarse de manera saludable y autodirigida, en el contexto
de un contexto más amplio. comunidad. Los bots como glía social podrían recordar a las
personas sus objetivos y hábitos, y podrían ayudar a alinear estos objetivos y hábitos con sus
comunidades, definidos de forma transparente. Los bots también podrían servir como
emisarios entre las personas y los sitios web de redes sociales para garantizar que los sitios
web no invadan las voces y libertades individuales. Como tal, la glía social puede reforzar una
forma aumentada de responsabilidad personal hacia nuestra identidad individual y colectiva,
tal como se construye en los espacios en línea. La filosofía biomimética detrás de este
enfoque de diseño ve a los bots como una forma de vida, sui generis: como lógicas culturales
vivas que pueden crecer por sí mismas, en simbiosis con nosotros. El objetivo de nuestra
filosofía de diseño, basada en analogías de inspiración biológica, es fomentar un espíritu de
humildad, responsabilidad y administración en la práctica de mejorar el yo, tanto bot como humano.

Nota
1 Nota de la artista, Larissa Belcic: la alopoyesis y la autopoiesis representan los cuerpos analógicos de
humanos como neuronas, bots como glía y bots como parásitos. Mediante el uso de un escáner de
cama plana, las manos, los rostros y el cabello se convierten en neuronas y las semillas de tomate se
convierten en bots, entrelazándose de formas alternativamente saludables y dañinas. Las imágenes
plantean propuestas estéticas para comprender el presente y guiar el futuro de las relaciones humano-
bot. Visita aquí: www.larissabelcic.com.

Referencias
Amiri, M., Hosseinmardi, N., Bahrami, F. y Janahmadi, M. (2013). Interacción astrocito-neurona como
mecanismo responsable de la generación de sincronía neuronal: un estudio basado en modelos y
experimentos. Revista de Neurociencia Computacional, 34(3), 489–504.
Angeli, A. y Brahnam, S. (2008). ¡Te odio! Desinhibición con compañeros virtuales. interactuando
con computadoras, 20(3), 302–310.
Araque, A. y Navarrete, M. (2010). Células gliales en función de red neuronal. Filosófico
Transacciones de la Royal Society B, 365, 2375–2381.
Bateson, G. (1972). Pasos para una ecología de la mente. Nueva York: Ballantine.
Cerveza, S. (1986). El cerebro de la empresa, 2ª ed. Nueva York: Penguin Press.
Bélanger, M., Allaman, I. y Magistretti, PJ (2011). Metabolismo de la energía cerebral: Centrarse en la
cooperación metabólica entre astrocitos y neuronas. Metabolismo celular, 14(6), 724–738.
Bessi, A. y Ferrara, E. (2016). Los bots sociales distorsionan la discusión en línea de las elecciones
presidenciales de EE. UU. de 2016. Primer lunes, 21(11). http://firstmonday.org/ojs/index.php/fm/article/
ver/7090/5653
Bitrán, H. (2016). Proyecto de bot de salud de Microsoft. www.microsoft.com/en-us/research/project/health-
bot/ Boshmaf, Y., Muslukhov, I., Beznosov, K. y Ripeanu, M. (2013). Diseño y análisis de una botnet
social. Redes informáticas, 57(2), 556–578. doi: 10.1016/j.comnet.2012.06.006
Machine Translated by Google

Ecologías humano-bot 181

Borowitz, A. (2017). Hombre en video de rehén obligado a recitar palabras que no son suyas. New
Yorker, 14 de agosto. www.newyorker.com/humor/borowitz-report/man-in-hostage-video force-to-
recite-words-not-his-own
Bosker, B. (2016). El interruptor de borrachera. El Atlántico, noviembre. www.theatlantic.com/
magazine/archive/2016/11/the-binge-breaker/501122/ Centola, D. (2010). La propagación del
comportamiento en un experimento de red social en línea. Ciencia,
329 (5996), 1194–1197.
Centola, D. (2011). Un estudio experimental de la homofilia en la adopción de conductas de salud
ior Ciencia, 334(6060), 1269–1272.
Centola, D. y Macy, M. (2007). Los contagios complejos y la debilidad de los lazos largos. American
Journal of Sociology, 113(3), 702–734.
Colby, K., Watt, J. y Gilbert, J. (1966). Un método informático de psicoterapia. el diario de
Enfermedad nerviosa y mental, 142(2), 148–152.
Coldewey, D. (2012). La cuenta de Twitter de Romney aumenta en seguidores falsos, pero de
¿donde? NBC News, 8 de agosto. www.nbcnews.com
Condliffe, J. (2017). ¿Los autos autónomos serán mejores conductores si pueden conversar entre
ellos? MIT Technology Review, 24 de abril. www.technologyreview.com/s/604258/ will-self-driving-
cars-be-better-drivers-if-they-can-chat-with-each-other/ Coren, M. ( 2016). Los asistentes virtuales
dedican gran parte de su tiempo a defenderse del acoso sexual.
Quartz, 25 de octubre. https://qz.com/818151/virtual-assistant-bots-like-siri-alexa-and cortana-
spend-much-of-their-time-fending-off-sexual-harassment/
Davidson, D. (2017). Facebook se dirige a los jóvenes “inseguros”. The Australian, 1 de mayo.
www.theaustralian.com.au/business/media/digital/facebook-targets-insecure-young people-to-sell-
ads/news-story/a89949ad016eee7d7a61c3c30c909fa6
Davis, W. (2009). Los buscadores de caminos: por qué la sabiduría antigua es importante en el mundo moderno. toronto,
ON: Anasi.
Dwyer, R. y Fraser, S. (2016). Adicción a través de hashtags: ¿Cómo está Twitter creando adicción?
Problemas contemporáneos de drogas, 43(1), 79–97. doi: 10.1177/0091450916637468
Edwards, C., Edwards, A., Spence, P. y Ashleigh, K. (2014). ¿Es un bot el que ejecuta el feed de las
redes sociales? Probar las diferencias en las percepciones de la calidad de la comunicación para
un agente humano y un agente bot en Twitter. Computadoras en el comportamiento humano, 33
(2014), 372–376. doi: 10.1016/j.chb.2013.08.013 Elishar, A., Fire, M., Kagan, D. y Elovici, Y.
(2012). Intrusión organizacional: Minería organizacional usando socialbots. Conferencia Internacional
de Informática Social 2012 (págs. 7–12).
Piscataway, NJ: Instituto de Ingenieros Eléctricos y Electrónicos (IEEE). doi: 10.1109/
SocialInformatics.2012.39
Ferguson, N. (2017). La falsa profecía de la hiperconexión. Relaciones Exteriores, 96(5): 68–79.
https://www.foreignaffairs.com/articles/2017-08-15/false-prophecy hiperconexión.

Fessler, L. (2017). Probamos bots como Siri y Alexa para ver quién resistiría el acoso sexual. Quartz,
22 de febrero. https://qz.com/911681/we-tested-apples-siri amazon-echos-alexa-microsofts-
cortana-and-googles-google-home-to-see-what personal-assistant-bots -defenderse-por-ellos-
mismos-frente-al-acoso-sexual/
Campos, D. (2011). El otro cerebro. Nueva York: Simon & Schuster.
Finn, E. (2017). Lo que quieren los algoritmos. Cambridge, MA: MIT Press.
Floridi, L. (2014a). Los agentes artificiales y su naturaleza moral. En P. Kroes & PP Verbeek (Eds.),
El estado moral de los artefactos técnicos (págs. 185–212). Dordrecht, Países Bajos: Springer
Science and Business Media. doi: 10.1007/978-94-007-7914-3-11
Machine Translated by Google

182 Douglas Guilbeault y Joel Finkelstein

Floridi, L. (2014b). La cuarta revolución: cómo la infoesfera está remodelando la realidad humana. Oxford:
Prensa de la Universidad de Oxford.
Forelle, M., Howard, P., Monroy-Hernández, A. y Savage, S. (2015). Los bots políticos y la manipulación de la
opinión pública en Venezuela. http://arxiv.org/abs/1507.07109 Casa de la Libertad. (2015). Estados Unidos.
En Freedom on the net 2015: Privatizing censorship, erosioning privacy (págs. 872–894). www.freedomhouse.org/
Gehl, R. (2014). Medios sociales de ingeniería inversa: software, cultura y economía política en el capitalismo
de los nuevos medios. Filadelfia: Temple University Press.

Geiger, S. (2009). Los roles sociales de los bots y los programas de edición asistida. Actas del 5º Simposio
Internacional sobre Wikis y Colaboración Abierta. Nueva York: ACM.
Geiger, S. (2014). Bots, a medida, código y la materialidad de las plataformas de software. Información,
Comunicación y Sociedad, 17(3), 342–356.
Geiger, S. (2016). Listas de bloqueo colectivas basadas en bots en Twitter: las moderaciones contrapúblicas
del acoso en un espacio público en red. Información, Comunicación y Sociedad, 19(6), 787–803.

Goethe, JW (1790[1970]). La metamorfosis de las plantas. Cambridge, MA: MIT Press.


Goethe, JW (1810[1970]). Teoría de los colores. Cambridge, MA: MIT Press.
Goffman, W. y Newill, V. (1964). Generalización de la teoría de la epidemia: una aplicación a la
transmisión de ideas. Naturaleza, 4955(204), 225–228.
Gorwa, R. y Guilbeault, D. (2017). Pesadillas de Tinder: las promesas y los peligros de los bots políticos. Wired,
7 de julio. www.wired.co.uk/article/tinder-political-bots-jeremy-corbyn labor

Graham, T. y Ackland, R. (2017). ¿Sueñan los socialbots con explotar la burbuja de los filtros? El papel de los
socialbots en la promoción de la democracia deliberativa en las redes sociales. En R. Gehl y M. Bakardjieva
(Eds.), Socialbots y sus amigos: los medios digitales y la automatización de la sociedad.
Nueva York: Routledge, 187–206.
Guilbeault, D. (2016). Aumento de la seguridad de los bots: una visión ecológica de la agencia de bots. Revista
Internacional de Comunicación, 10, 5003–5021. http://ijoc.org/index.php/ijoc/article/view/6135 Guilbeault, D.
y Woolley, S. (2016). Cómo los bots de Twitter están dando forma a las elecciones.
The Atlantic, 1 de noviembre. www.theatlantic.com/technology/archive/2016/11/election-bots/506072/

Guyunn, J. (2017). Facebook puede saber cuándo los usuarios se sienten inseguros. USA Today, 1 de mayo.
www. usatoday.com/story/tech/news/2017/05/01/facebook-can-tell-when-teens-feel insecure-advertiser-
target/101158752/# Han, X., Chen, M., Wang, F. , Windrem, M., Wang, S., Shanz, S., … Nedergaard, M.
(2013).
El injerto del cerebro anterior por células progenitoras gliales humanas mejora la plasticidad sináptica y el
aprendizaje en ratones adultos. Cell Stem Cell, 12(3), 342–353.
Hannan, M. y Freeman, J. (1989). Ecología organizacional. Cambridge, MA: Universidad de Harvard
Versity Press.
Hayles, K. (1999). Cómo nos volvimos posthumanos: cuerpos virtuales en cibernética, literatura e información
matices Chicago: Prensa de la Universidad de Chicago.
Hidalgo, C. (2015). Por qué crece la información: La evolución del orden, de los átomos a las economías. Nueva
York: Libros básicos.

Hine, G., Onaolapo, J., De Cristofaro, E., Kourtellis, N., Leontiadis, I., Samaras, R., …
Blackburn, J. (2017). Kek, cucks y dios emperador Trump: un estudio de medición del foro políticamente
incorrecto de 4chan y sus efectos en la web. ArXiv. https://arxiv.org/abs/1610.03452

Hwang, T., Pearce, I. y Nanis, M. (2012). Socialbots: Voces desde el frente. Social Mediator, marzo–abril, págs.
38–45. doi: 10.1145/2090150.2091061
Machine Translated by Google

Ecologías humano-bot 183

Justo, M., Crigler, A., Metaxes, P. y Mustafaraj, E. (2012). “Es tendencia en Twitter”: un análisis de las manipulaciones
de Twitter en las elecciones especiales para el senado de Massachussets en 2010. Ponencia presentada en la
Reunión Anual de la Asociación Estadounidense de Ciencias Políticas.
Nueva Orleans, LA, del 30 de agosto al 2 de septiembre. https://papers.ssrn.com/sol3/papers. cfm?
abstract_id=2108272 Keesey, I., Koerte, S., Khallaf, M., Retzke, T., Guillou, A., Grosse-Wilde, E., … Hans son, B.
(2017). Las bacterias patógenas mejoran la dispersión a través de la alteración de la comunicación social de Drosophila .
Comunicaciones de la Naturaleza, 8(265). www.nature.com/articles/ s41467-017-00334-9

Kennedy, K. (2009). Maquinaria textual: Agencia autoral y textos escritos por bots en Wikipe dia. En M. Smith & B.
Warnick (Eds.), Las responsabilidades de la retórica (págs. 303–309). Long Grove, Illinois: Waveland.

King, G., Pan, J. y Roberts, M. (2016) Cómo el gobierno chino fabrica publicaciones en las redes sociales para una
distracción estratégica, no para un argumento comprometido. Revista estadounidense de ciencias políticas, 11 (3),
484–501.
Krafft, P., Macy, M. y Pentland, A. (2016). Bots como confederados virtuales: diseño y ética. La 20ª conferencia ACM
sobre trabajo cooperativo asistido por computadora y computación social (CSCW). doi: 10.1145/2998181.2998354.

Krippendorff, K. (1986). Un diccionario de cibernética. Norfolk, VA: Sociedad Estadounidense de


Cibernética. http://repository.upenn.edu/asc_papers/224
Kuss, D. y Griffiths, M. (2011). Redes sociales en línea y adicción: una revisión de la literatura psicológica. Revista
internacional de investigación ambiental y salud pública, 8(9), 3528–3552. doi: 10.3390/ijerph8093528

Laorden, C., Galán-García, P., Santos, I., Sanz, B., Hidalgo, J., & Bringas, P. (2013). Negobot: Un agente conversacional
basado en la teoría de juegos para la detección del comportamiento pedófilo. Conferencia internacional conjunta
CISIS'12-ICEUTE'12-SOCO'12 sesiones especiales. Berlín y Heidelberg: Springer.

LaRose, R., Kim, J. y Peng, W. (2011). Redes sociales: ¿Adictivas, compulsivas, problemáticas o simplemente otro
hábito de los medios? En Z. Papacharissi (Ed.), Un yo en red: Identidad, comunidad y cultura en sitios de redes
sociales (págs. 59–82). Nueva York: Routledge.
Le Guin, U. (1974). Los desposeídos. Nueva York: Harper Collins.
Leonardo, A. (1998). Bots: El origen de nuevas especies. Nueva York: pingüino.
Lucas, G., Gratch, J., King, A. y Morency, L. (2014). Es solo una computadora: los humanos virtuales aumentan la
disposición a revelar. Computadoras en el comportamiento humano, 37, 94–100.
Malbón, J. (2013). Tomando en serio las críticas falsas de los consumidores en línea. Diario de Política del Consumidor,
36(2), 139–157.
Martínez, A. (2016). Monos del caos: fortuna obscena y fracaso aleatorio en Silicon Valley. Nuevo
York: Harper.
Maturana, H. y Varela, F. (1979). Autopoiesis y cognición: La realización de lo vivo. Boston, MA: Publicaciones de D.
Reidel.
Maxwell, JC (1882). ¿Existen analogías reales en la naturaleza? En L. Campbell y W. Garnett
(Eds.), Vida de James Clerk Maxwell (págs. 235–244). Londres: Macmillan.
McLuhan, M. (1964). Comprender los medios: las extensiones de los medios. Nueva York: McGrawHill.
McKelvey, F. y Dubois, E. (2017). Propaganda computacional en Canadá: El uso de bots políticos. En S. Woolley y
PN Howard (Eds.), Documento de trabajo 2017.6. Oxford: Proyecto sobre Propaganda Computacional. http://
comprop.oii.ox.ac.uk/
Messias, J., Schmidt, L., Oliveira, R. y Benevenuto, F. (2013). ¡Seguiste mi bot! Transformar robots en usuarios
influyentes en Twitter. Primer lunes, 18(7). http://primerlunes. org/ojs/index.php/fm/article/view/4217/3700#p4
Machine Translated by Google

184 Douglas Guilbeault y Joel Finkelstein

Metaxas, PT y Mustafaraj, E. (2012). Las redes sociales y las elecciones. Ciencia, 338(6106), 472–473. doi: 10.1126/
ciencia.1230456

Metzger, M. y Flanagin, A. (2013). Credibilidad y confianza de la información en entornos en línea: El uso de la


heurística cognitiva. Revista de pragmática, 59, 210–220. doi: 10.1016/j. pragma.2013.07.012 Miyamoto, A., Wake,
H., Moorhouse, A. y Nabekura, J. (2013). Interacciones de microglía y sinapsis: ajuste fino de circuitos neuronales
y moléculas candidatas. Fronteras en neurociencia celular, 7(70). doi: 10.3389/fncel.2013.00070

Molteni, M. (2017). El terapeuta de chatbot lo verá ahora. Por cable, 7 de junio. www.wired. com/2017/06/facebook-
messenger-woebot-chatbot-terapeuta/ Mønsted, B., Sapiezynski, P., Ferrara, E. y Lehmann, S. (2017). Evidencia
de contagio complejo de información en redes sociales: un experimento usando bots de Twitter. PloS One, 12(9),
e0184148.

Morisano, D., Hirsh, J., Peterson, J., Pihl, R. y Shore, M. (2010). El establecimiento, reflexión y elaboración de metas
personales mejora el rendimiento académico en estudiantes universitarios. Journal of Applied Psychology, 95, 255–
264.
Munger, K. (2016). Efectos de los tuits en los tuiteados: reducción experimental del acoso racista. Comportamiento
político, 39, 629–649.
Naess, A. (1995). Autorrealización: un enfoque ecológico para estar en el mundo. En g.
Sessions (Ed.), Ecología profunda para el siglo XXI (págs. 225–239). Boston, MA: Shambhala.

Neff, G. y D. Nafus. (2016). Auto-seguimiento. Cambridge, MA: MIT Press.


Neff, G. y P. Nagy. (2016). Hablando con bots: agencia simbiótica y el caso de Tay. interna
Revista Nacional de Comunicación, 10, 4915–4931.
Newton, C. (2016). Habla, memoria: cuando murió su mejor amigo, ella lo reconstruyó usando inteligencia artificial.
Borde. www.theverge.com/a/luka-artificial-intelligence-memorial roman-mazurenko-bot

Pachter, J. (2003). La barrera hematoencefálica y su papel en el privilegio inmunológico en el sistema nervioso central.
Revista de neuropatología y neurología experimental, 62(6), 593–604.
Página, S. (2008). La diferencia: cómo el poder de la diversidad crea mejores grupos, empresas, escuelas y
sociedades Princeton: Prensa de la Universidad de Princeton.
Papacharissi, Z. (2009). Las geografías virtuales de las redes sociales: un análisis comparativo de Facebook, LinkedIn
y ASmallWorld. Nuevos medios y sociedad, 11(1–2), 199–220. doi: 10.1177/1461444808099577

Papacharissi, Z. (2012). Sin ti no soy nada: Actuaciones del yo en Twitter. Revista internacional de comunicación, 6.
http://ijoc.org/index.php/ijoc/article/view/1484 Pareene, A. (2016). Cómo engañamos a Donald Trump para que
retuiteara a Benito Musso lini. Gawker, 28 de febrero. http://gawker.com/how-we-fooled-donald-trump-into retweeting-
benito-musso-1761795039 Parisi, L. (2013). Arquitectura contagiosa: computación, estética y espacio. Cambridge,
MA:

Prensa del MIT.

Pask, G. (1969). La relevancia arquitectónica de la cibernética. Diseño Arquitectónico, 39 (septiembre


ber), 494–496.
Payrs, B., Cote, A., Gallo, V., De Koninck, P. y Sik, A. (2010). Señalización de calcio intercelular entre astrocitos y
oligodendrocitos a través de uniones comunicantes en cultivo. Neurociencia, 167(4), 1032–1043.

Pennebaker, J., W. y Stone, LD (2004). Traducir experiencias traumáticas al lenguaje: implicaciones para el abuso
infantil y la salud a largo plazo. En LJ Koenig, LS
Machine Translated by Google

Ecologías humano-bot 185

Doll, A. O'Leary y W. Pequegnat (Eds.), Del abuso sexual infantil al riesgo sexual adulto: Trauma,
revictimización e intervención (págs. 201–216). Washington, DC: Asociación Americana de Psicología.

Pickering, A. (2010). El cerebro cibernético: Esbozos de otro futuro. Chicago: Universidad de Chicago
Versity Press.
Ratkiewicz, J., Conover, M., Meiss, M., Goncalves, B., Flammini, A. y Menczer, F. (2011a).
Detectar y rastrear el abuso político en las redes sociales. Actas de la quinta conferencia internacional
AAAI sobre weblogs y redes sociales. www.aaai.org/ocs/index.php/ICWSM/ICWSM11/paper/view/2850

Ratkiewicz, J., Conover, M., Meiss, M., Goncalves, B., Patil, S., Flammini, A. y Menczer, F. (2011b). Truthy:
Mapeo de la propagación de astroturf en flujos de microblog. WWW '11: Actas de la vigésima conferencia
internacional complementaria en la red mundial (págs. 249–252). doi: 10.1145/1963192.1963301

Rogers, D. (2012). Edad de la fractura. Cambridge, MA: Prensa de la Universidad de Harvard.


Salisbury, Juan de (obispo de Chartres). (1159/1979). Policraticus: El libro del estadista. Nuevo
York: F. Ungar.
Savage, S., Monroy-Hernández, A. y Hollerer, T. (2016). Botivist: llamando a los voluntarios a la acción
usando bots en línea. Actas de la 19.ª conferencia de la ACM sobre trabajo cooperativo asistido por
ordenador y computación social (CSCW) (págs. 813–822). Nueva York: ACM.
Schneier, B. (2014.) Datos y Goliat: Las batallas ocultas para recolectar sus datos y controlar su
mundo. Nueva York: WW Norton.
Shirado, H. y Christakis, N. (2017). Agentes autónomos localmente ruidosos mejoran global
coordinación humana en experimentos de red. Naturaleza, 545, 370–374.
Smyth, JM (1998). Expresión emocional escrita: tamaños del efecto, tipos de resultados y variables
moderadoras. Revista de consultoría y psicología clínica, 66(1), 174–184.
Spencer, H. (1864). Principios de biología. Londres: Williams y Norgate.
Spencer, H. (1896). El estudio de la sociología. Nueva York: D. Appleton.
Stryker, C. (2011). Victoria épica para Anonymous: cómo el ejército de 4chan conquistó la web. Nueva York:
Pasar por alto Duckworth
Subrahmanian, VS, Azaria, A., Durst, S., Kagan, V., Galstyan, A., Lerman, K., … Hwang, T. (2016). El
desafío del bot de Twitter de DARPA. Computadora, 49(6), 38–46.. doi: 10.1109/ MC.2016.183

Tsvetkova, M., García-Gavilanes, R., Floridi, L. y Yasseri, T. (2017). Incluso los buenos bots pelean: El caso
de Wikipedia. PLoS ONE, 12(2): e0171774. doi: 10.1371/revista. teléfono.0171774 Turkle, S. (1995).
Identidad en la pantalla. Nueva York: Simon & Schuster.

Turkle, S. (2011). Solos juntos. Nueva York: Libros básicos.


Turow, J. (2011). El diario tú. New Haven, CT: Prensa de la Universidad de Yale.
Turow, J. (2017). Los pasillos tienen ojos: cómo los minoristas rastrean sus compras, eliminan su privacidad
y definen su poder. New Haven, CT: Prensa de la Universidad de Yale. van Dick, J. (2013). “Tienes una
identidad”: Realización del yo en Facebook y LinkedIn. Medios, cultura y sociedad, 35(2), 199–215. doi:
10.1177/0163443712468605 Verkhratsky, A. y Nedergaard, M. (2016). La astroglía homeostática surge
de la especialización evolutiva de las células neurales. Transacciones filosóficas de la Royal Society, 371
(1700). doi: 10.1098/rstb.2015.0428 Vicente, J. (2016). Baidu lanza chatbot médico para ayudar a
médicos chinos a diagnosticar pacientes. El borde. www.theverge.com/2016/10/11/13240434/baidu-
medical chatbot-china-melody
Machine Translated by Google

186 Douglas Guilbeault y Joel Finkelstein

Wade, J., McDaid, L., Harkin, J., Crunelli, V. y Kelso, J. (2011). El acoplamiento bidireccional entre
astrocitos y neuronas media el aprendizaje y la coordinación dinámica en el cerebro: un enfoque de
modelado múltiple. PLoS One, 6(12), e29445.
Wallace, D. (1996). Frivolidad infinita. Nueva York: Little Brown.
Weizenbaum, J. (1966). ELIZA: un programa de computadora para el estudio de la comunicación en
lenguaje natural entre el hombre y la máquina. Comunicaciones de la ACM, 9, 36–45.
Wiener, N. (1950). El uso humano de los seres humanos: Cibernética y sociedad. Nueva York: Avon
Libros.
Wininger, S. (2016). El secreto detrás del seguro instantáneo de Lemonade. Lemonade, 23 de
noviembre. https://medium.com/@shai_wininger/the-secret-behind-lemonades-instant
insurance-3129537d661#.89a6k6lkp Wong, S. (2016). Google Translate AI inventa su propio
idioma para traducir. New Scientist, 30 de noviembre. www.newscientist.com/article/2114748-google-
translate-ai-invents its-own-language-to-translate-with/ Woolley, SC (2016). Automatización del
poder: la interferencia de los bots sociales en la política global. Primer lunes, 21(4). http://
firstmonday.org/ojs/index.php/fm/article/view/6161/5300 Woolley, S. y Guilbeault, D. (2017). Propaganda
computacional en los Estados Unidos de América: consenso de fabricación en línea. En S. Woolley
y PN Howard (Eds.), Documento de trabajo 2017.5. Oxford: Proyecto sobre Propaganda Computacional.
comprop.oii. ox.ac.uk. http://comprop.oii.ox.ac.uk/ Woolley, S. y Howard, P. (2017). Propaganda
computacional en todo el mundo: resumen ejecutivo. En S. Woolley y PN Howard (Eds.), Documento
de trabajo 2017.1. Oxford: Proyecto sobre Propaganda Computacional. comprop.oii.ox.ac.uk. http://
comprop.oii.ox.ac.uk/ Xie, Y., Yu, F., Ke, Q., Abadi, M., Gillum, E., Vitaldevaria, K., … Morley, MZ
(2012) ).

Inocente por asociación: Reconocimiento temprano de usuarios legítimos. Actas de la conferencia


ACM de 2012 sobre informática y comunicaciones (págs. 353–364). Nueva York: ACM. doi:
10.1.1.299.129
Zittrain, J. (2008). El futuro de Internet y cómo detenerlo. New Haven, CT: Universidad de Yale
Prensa de la ciudad.
Machine Translated by Google

13
IA, PERSONA Y DERECHOS
tamara pastor

La noción de derechos en la cultura digital es tensa. Los marcos para los derechos humanos
inalienables, ellos mismos criticados por motivos de abstracción, eurocentrismo y sesgo de género,
han sido objeto de un intenso debate cuando se transponen a espacios de trabajo en red. La
RightsCon de 2017 en Bélgica, por ejemplo, contó con charlas sobre diversos aspectos de los
derechos de Internet, desde la jurisdicción regulatoria hasta los impactos ambientales de la
tecnología, el discurso de odio en línea y los acuerdos comerciales. Relacionado con todos estos
temas, una conclusión que ha surgido durante los últimos 20 años de popularización de Internet ha
sido la sensación de que la cultura digital es, en cierto modo, una construcción inherentemente
comercial, donde los ideales de democratización son simplemente herramientas retóricas que
apuntalan poder corporativo consolidado (por ejemplo, Dean, 2005; Gillespie, 2010; Zuboff, 2015).

Dada la naturaleza abrumadoramente comercial de lo que la mayoría de la gente experimenta


como cultura digital, y la ubicación de esa marca de comercialismo predominantemente en los
Estados Unidos (Jin, 2013), ¿cómo se podrían considerar los derechos constitucionales a la
integridad personal y la libertad? Un marco para restablecer la viabilidad legal de la persona en la
cultura digital es la formulación de William McGeveran (2009) de los “derechos de la persona”.
McGeveran ve gran parte de la cultura digital definida por los límites de las plataformas sociales
respaldadas por publicidad que mercantiliza los respaldos de los usuarios; en otras palabras, una
economía “similar” (eg Gerlitz & Helmond, 2013). Dado que las plataformas sociales se apropian de
los datos del usuario (privacidad) y el contenido creativo (propiedad intelectual), argumenta
McGeveran, un individuo debe recurrir a su condición de persona jurídica para ejercer un control
monopólico sobre su propia imagen. Los derechos de la persona ofrecen así un marco legal
novedoso para reforzar la integridad de la persona dentro de los espacios comerciales de la cultura
digital.
Por supuesto, los derechos de la persona reflejan un contexto liberal y, por lo tanto, pueden
criticarse sobre la base de que vuelve a afianzar la individualidad neoliberal como base de los derechos.
Machine Translated by Google

188 Tamara Pastor

renunciar a las versiones socialista, feminista e indígena de los derechos colectivos. Sin
embargo, por muy prometedores que puedan ser estos enfoques para resistir la invasión de la
racionalidad neoliberal, la configuración actual de la cultura digital está controlada por un puñado
de élites tecnológicas consolidadas. Este es especialmente el caso de los avances
contemporáneos en inteligencia artificial (IA): el desarrollo del aprendizaje automático basado
en algoritmos patentados estrechamente controlados, que crece en complejidad desde los
sistemas de recomendación (p. ej., Netflix) hasta el aprendizaje profundo (p. ej., Google). Al
crear algoritmos con la capacidad de optimizar la predicción, las estrategias de aprendizaje
automático se están utilizando en diversos contextos, desde el diagnóstico médico hasta los
vehículos autónomos y los sistemas de armas. Prestando especial atención al desarrollo de la
inteligencia general artificial (IAG), la capacidad de las máquinas computacionales para resolver
una variedad de problemas complejos en todos los dominios al controlarse a sí mismas de
manera autónoma e incluso consciente (Pennachin & Goertzel, 2007), este capítulo examina
cómo los algoritmos de aprendizaje automático agregan complicaciones fundamentales al
terreno ya tenso de los derechos digitales. Al enmarcar tales derechos en términos de derechos
de la persona, espero agregar a un creciente conjunto de medios para reafirmar al ser humano
como un agente portador de derechos dentro del poshumanismo.

El concepto posthumano de la IA

Las máquinas pensantes han sido enmarcadas como “personas posthumanas” (Hamilton, 2009,
p. 143), en el sentido de que sus interacciones con los interlocutores humanos forman la base
de nuestra percepción de su inteligencia. Los sistemas de IA aprenden de los humanos y se
inspiran en el sistema nervioso humano, materializando el cyborg de Donna Haraway de una
manera que sugiere un desplazamiento de la agencia transformadora hacia las máquinas. En
este contexto posthumano, los desarrollos en IA ejercen la misma presión sobre la idea del ser
humano como “especial” que los avances en nuestra comprensión de la cognición animal, lo que
vincula la idea de los derechos posthumanos con los derechos de los animales y posiciona a los
humanos como administradores. de estas otras inteligencias (Haraway, 1991, 2008; Hayles,
1999).
El poshumanismo ha sido un concepto destacado dentro de los estudios de Internet en
general, donde la comunicación en red se basa en la unidad de la persona usuario individual,
cuya subjetividad se configura a través de una "estrategia liberal de autoestima
individual" (Balakrishnan, 2016, p. 112) . Dado que las plataformas sociales han llegado a
dominar las experiencias de Internet de la mayoría de los usuarios, la personalización se ha
convertido en el sello distintivo de las plataformas populares impulsadas por modelos publicitarios
basados en datos. Esta intensa personalización se basa en la IA que se manifiesta en los
algoritmos de aprendizaje automático que se benefician de las enormes cantidades de datos
que ingresan los usuarios de plataformas como Net flix, Facebook, Google y Amazon.
Desarrollados por grandes empresas de tecnología, estos algoritmos de aprendizaje automático tienden a ser prop
La falta de transparencia tiene sentido dados los secretos comerciales que caracterizan el
desarrollo tecnológico, pero tiene implicaciones significativas cuando estos algoritmos avanzan
hacia el aprendizaje profundo.
Machine Translated by Google

IA, Persona y Derechos 189

El aprendizaje profundo es un subconjunto del aprendizaje automático en el que el propio algoritmo,


en lugar del programador, define las características que se analizarán y cómo se deben optimizar los
resultados modelando cómo funciona el cerebro humano. Las entradas al algoritmo se analizan y
procesan. Si el procesamiento da como resultado un resultado correcto, esas vías analíticas se refuerzan;
si el resultado es incorrecto, las vías se reconfiguran (Sample, 2017). Este tipo de ajuste independiente a
través del aprendizaje se denomina retropropagación y se parece conceptualmente a la plasticidad
neuronal del cerebro humano. Google tiene diferentes divisiones trabajando actualmente en el aprendizaje
profundo, incluidas Google Brain y Google DeepMind. Estas divisiones están trabajando en modelos de
retropropagación, pero también están desarrollando una alternativa que utiliza incluso menos poder de
cómputo, que se denomina enfoque de estrategias evolutivas (Domingos, 2015). El modelo de estrategias
evolutivas se parece aún más a cómo funciona el cerebro, donde la información solo viaja hacia adelante,
no hacia atrás, a través de las sinapsis neuronales (Lake et al., en prensa, p. 36). Y el nombre de este
proceso, "evolutivo", alinea más estrechamente la IA retóricamente con el cerebro al usar el lenguaje de
una visión particularmente humana de la adaptación evolutiva: "Los humanos son la especie que adapta
el mundo a sí mismo en lugar de adaptarse al mundo". . El aprendizaje automático es el capítulo más
reciente de esta saga de un millón de años”

(Domingos, 2015, p. 3). El aprendizaje profundo representa un futuro de máquinas que se adaptan al
mundo y, a su vez, adaptan el mundo a sí mismas, ya no están sujetas al aprendizaje supervisado bajo la
guía de los programadores, sino que participan en el aprendizaje reforzado y la toma de decisiones
autónoma (Stone et al., 2016). , pág. 15).

Al considerar los avances en los sistemas de IA a través del prisma del poshumanismo, quizás la
posibilidad más tentadora sea la de la inteligencia general artificial (IAG). Las IA de aprendizaje profundo
de hoy en día están capacitadas para aprender tareas específicas, como el reconocimiento de objetos o
de voz (Stone et al., 2016; Weston et al., 2014). AGI presenta una alternativa de propósito general que
puede manejar un conjunto diverso de tareas basándose en una memoria flexible más parecida a la
humana (Pennachin & Goertzel, 2007). Tal flexibilidad es posible al imitar la estructura funcional del
cerebro a través de la computación neuromórfica. La computación neuromórfica reemplaza los modelos
computacionales tradicionales que separan las entradas/salidas, el procesamiento de instrucciones y la
memoria, y en su lugar integra estos módulos de manera similar al cerebro (Stone et al., 2016, p. 9). Los
investigadores de aprendizaje profundo prevén que AGI surja de tales intentos de acercarse cada vez más
al procesamiento similar al cerebro, donde se proyecta que las futuras redes neuronales estén "dotadas
de física intuitiva, teoría de la mente, razonamiento causal y otras capacidades", incluida la capacidad
para “buscar y descubrir efectivamente nuevos modelos mentales o teorías intuitivas” que puedan usarse
como base para subsecuentes

aprendizaje frecuente (Lake et al., en prensa, pág. 3).


Sin embargo, para alcanzar tal ideal posthumano, AGI debe superar una serie de obstáculos en su
progresión evolutiva. Una barrera importante es el poder de cómputo: un cerebro promedio contiene
alrededor de 100 mil millones de neuronas, cada una conectada con hasta 10 000 otras neuronas a través
de un total de entre 100 billones y
Machine Translated by Google

190 Tamara Pastor

1000 billones de sinapsis. Igualar eso en el poder de cómputo requerirá saltos en la tecnología
de procesamiento, quizás solo alcanzables a través de la computación paralela o cuántica. No
obstante, parece que AGI está en algún lugar en el horizonte. Y a pesar de que las máquinas
piensan de manera distinta al pensamiento humano, el aprendizaje profundo todavía se basa en
la homofilia del cerebro en términos de inspiración estructural de la neurociencia (Le et al., 2012),
así como en los puntos de referencia psicológicos que se basan en comparaciones con
inteligencia humana (Kahn et al., 2007). Como sostiene N. Katherine Hayles (1999) sobre la IA,
su truco radica en las pruebas (incluida la famosa prueba de Turing) que se utilizan para evaluar
la inteligencia. Si la inteligencia humana es el punto de referencia para determinar la eficacia de
AGI, podríamos pasar por alto las capacidades claramente posthumanas que provienen de
modelos alternativos de aprendizaje (Stone et al., 2016, p. 13).
La IA ya supera las capacidades humanas en tareas como la predicción instantánea, y aquí es
donde el posthumanismo sugiere la necesidad de una política. Dado el desarrollo y despliegue
de la IA dentro de las empresas de tecnología emblemáticas del capitalismo tardío, lo que se
necesita es una extensión del sentido de la tecnología de Winner (1977) como teniendo una
política para dar cuenta de la remodelación potencial de los derechos democráticos de la IA en
un contexto tecnocrático (Damnjanovic´ , 2015).

Derechos y Comercio
Es crucial considerar el contexto posthumano al adaptar las concepciones de los derechos,
típicamente enmarcados como derechos liberales y humanistas, a la situación específica de la IA.
Los derechos humanos son un concepto relativamente nuevo, con esa frase solo en uso común
desde la década de 1940 y la adopción de la Declaración Universal de Derechos Humanos de
las Naciones Unidas (DUDH). Sin embargo, la idea de los derechos inalienables de la persona
se remonta mucho más atrás en el pensamiento occidental (desde las sociedades griegas
antiguas hasta la Edad Media), y se puede ver que conceptos como los "derechos naturales" se
convierten en la piedra angular de la filosofía de la Ilustración. Por ejemplo, en su Segundo
tratado sobre el gobierno civil (1689), John Locke defendió el derecho natural de los hombres a
la vida, la libertad y la propiedad. Tales argumentos brindaron protección de derechos a nivel
estatal, particularmente en contextos revolucionarios contemporáneos, como se evidencia en la
Declaración de Derechos inglesa (1689), la Declaración de Independencia de los Estados Unidos
(1776) y la Déclaration des droits de l'homme et du citoyen de Francia. (1789).
Si bien todas estas implementaciones de la idea de los derechos naturales difieren según
sus contextos políticos específicos, comparten la noción de que las personas deben estar
naturalmente dotadas de ciertos derechos básicos, protecciones o libertades que respalden el
respeto por la agencia de la persona como ser humano. Este tipo de derechos se enmarcan en
el discurso actual de los derechos humanos como derechos morales (derechos atribuibles a una
persona simplemente porque existe como ser humano) y, por lo tanto, deben distinguirse de los
derechos legales o los derechos defendidos por los tribunales en una jurisdicción específica. Los
tratados de derechos humanos intentan reconocer los derechos morales como derechos legales,
aunque esto se complica por las diversas interpretaciones de ambos, sujetas a las circunstancias históricas.
Por ejemplo, la filosofía moral kantiana postula la moralidad como fundamentalmente racional.
Machine Translated by Google

IA, Persona y Derechos 191

y la responsabilidad moral como fundamento de los derechos. La razón de autogobierno de


cada persona para actuar debidamente (de acuerdo con el imperativo categórico), en opinión de
Kant, proporcionaba una versión deontológica de los derechos mediante los cuales se podía
considerar que esa persona poseía el mismo valor y merecía el mismo respeto que las demás.
Sin embargo, la universalizabilidad de la filosofía moral kantiana, si bien concuerda con las ideas
sobre los derechos humanos universales, existe más en la abstracción que en la realidad vivida.
Un enfoque histórico más situado de los derechos como éticos en lugar de morales coloca a los
derechos humanos más directamente dentro de los contextos políticos contemporáneos al tratar
de definir qué se entiende exactamente por derechos bajo el actual “régimen de derechos
humanos” (por ejemplo, Rawls, 2001).
El régimen actual de la DUDH refleja una especie de continuidad entre el momento de la
Ilustración para los derechos naturales dentro del capitalismo emergente y el contexto capitalista
tardío del siglo XX. En ambas épocas, las ideas de personalidad coincidieron con modelos para
extraer plusvalía de la persona en forma de fuerza de trabajo, en términos marxistas. Legalmente
reconocida como “persona”, la personalidad ha llegado a adoptar una forma de mercancía, donde
“la persona confirma la capacidad de trabajo y autoría de la persona individual”

(Hamilton, 2009, pág. 190). Lo que cambia con la cultura digital es la transición al capitalismo de
vigilancia (Zuboff, 2015), que distorsiona los valores del individualismo central en las versiones
liberales y neoliberales de la persona como agente portador de derechos al segmentar a los
individuos en unidades aún más pequeñas: "dividuos". (Deleuze, 1992; Terranova, 2004), a
través de regímenes de recopilación de datos que alimentan los sistemas de IA en plataformas
en red.
Si bien los humanos se reconfiguran como individuos a través de sus relaciones contractuales
con empresas de tecnología que ejecutan plataformas sociales, la evolución de AI a AGI sugiere
una nueva formulación de derechos poshumanos. Las máquinas de antropomorfismo tienen
consecuencias para los marcos legales en torno a la agencia (Ham ilton, 2009, p. 175). Por
ejemplo, una propuesta de 2016 al Parlamento Europeo recomienda otorgar el estatus de
persona a las máquinas pensantes de acuerdo con la Carta de los Derechos Fundamentales de
la UE (Delvaux, 2016). En gran medida, esta apelación a la personalidad de la IA se basa en
preocupaciones sobre la responsabilidad, donde las máquinas pueden ser legalmente
responsables de sus propias acciones. La propuesta continúa sugiriendo que la autonomía de
los sistemas avanzados de IA “plantea la cuestión de su naturaleza a la luz de las categorías
legales existentes—de si deben ser considerados como personas físicas, personas jurídicas,
animales u objetos—o si una nueva se debe crear la categoría” (Delvaux, 2016, p. 5). La
preocupación aquí es el estado legal de la IA en relación con los regímenes de propiedad
existentes, incluida la forma en que el aprendizaje automático se basa en la recopilación de
"datos personales como una 'moneda' con la que se pueden 'comprar' los servicios", desafiando
a otros países de la UE. normativa en torno a la protección de datos (Delvaux, 2016, p. 8). Esta
propuesta es notable tanto por señalar la categorización confusa de la IA en relación con los
derechos como por posicionar los marcos de derechos legales contemporáneos directamente
dentro de la versión de los datos del capitalismo de vigilancia como propiedad y moneda con
licencia.
Machine Translated by Google

192 Tamara Pastor

Derechos personales en IA

El derecho contractual privado, manifestado en los acuerdos de Términos de servicio de las


plataformas sociales, ejerce una presión significativa sobre las versiones contemporáneas de
los derechos bajo el capitalismo de vigilancia. Toda la idea de los datos como moneda se
reconoce legalmente a través de los Términos de servicio que la mayoría de los usuarios de
Internet ni siquiera leen (Klang, 2004), pero que dictan la relación contractual entre la persona y
la plataforma. De acuerdo con las estipulaciones comunes de los acuerdos de Términos de
servicio, las plataformas mercantilizan el contenido y la información personal que proporcionan
los usuarios. Como explica Lawrence Lessig (2006), el derecho contractual privado desplaza así
la regulación gubernamental en Internet, de acuerdo con el afán de lucro (págs. 185-187).
Si bien los usuarios pueden ejercer cierta influencia sobre la equidad de estos contratos a través
de canales tradicionales como el sistema judicial o nuevos canales tecnológicos como el
desarrollo de arquitecturas de Internet alternativas, las grandes empresas de tecnología aún
dominan. Además, si bien los acuerdos de Términos de servicio varían según el sitio web y el
país anfitrión, muchos de los sitios más populares a nivel mundial se encuentran en los Estados
Unidos (Jin, 2013). Como tal, la política patrocinada por el estado en torno a los derechos de los
usuarios debe considerar no solo la comercialización de la persona, sino también el desequilibrio
geopolítico de dicho control.

En términos más generales, un sesgo occidental sustenta la relación contractual entre la


plataforma y la persona a través de la forma del propio acuerdo de Términos de servicio.
Como argumenta Carole Pateman (1988), la forma en que la identidad o la persona de uno
puede generar un interés de propiedad bajo el capital surge del legado libertario de la propiedad
de uno mismo. La idea de poseerse se traduce en derechos enajenables a la “propiedad en la
persona”, que somete a la persona, como propiedad privada, a un marco que ella denomina
“contractuarismo”. El contractualismo contiene una paradoja inherente al Pate man, dado que
los contratos que vinculan a la persona —como los contratos de trabajo— alienan el derecho de
autogobierno de la persona como trabajador al mismo tiempo que exigen el trabajo como una
práctica humanista, una práctica marcada por el autogobierno y autonomía (Pateman, 2002, p.
47). Una paradoja paralela es evidente en los Términos de servicio de las plataformas de redes
sociales: las plataformas “retienen los derechos de licencia sobre el contenido y la expresión del
usuario, en medio de celebraciones de la agencia del usuario y la democratización de la
producción cultural” (Shepherd, 2012, p. 107). Esta disyuntiva podría llevarse aún más lejos en
el contexto del aprendizaje automático, donde el contrato que celebran los usuarios sugiere el
acceso completo a sus datos privados y propiedad intelectual como recursos sobre los cuales
capacitar plataformas para personalizar mejor y satisfacer las necesidades de los usuarios o, de
hecho, resolver problemas complejos. problemas globales (Zuckerberg, 2017).
Sin embargo, bajo el capital de vigilancia, la idea de la persona individual se ve cuestionada
por la forma en que los contratos de Términos de servicio facilitan la división de individuos en
individuos: derivados de datos que se pueden agregar y reconfigurar de acuerdo con la lógica
generadora de patrones de big data ( Amore, 2011). En este contexto, los derechos individuales
dentro del contractualismo se vuelven aún más tenues. Por ejemplo, los marcos legales
estadounidenses para la propiedad intelectual solo han
Machine Translated by Google

IA, Persona y Derechos 193

Los reclamos corporativos fortalecidos a la cultura digital, como en la Ley de derechos de autor
del milenio digital (1998), y las leyes de privacidad de la Comisión Federal de Comunicaciones
fueron derogadas a principios de 2017 por el Congreso y la Administración Trump. Dado este
tipo de desafíos legales a la integridad de la privacidad individual y la propiedad intelectual,
que solo aumentarán en el contexto de la IA, parece importante intentar restablecer la
prominencia legal de la persona, a pesar de sus deficiencias, como un medio para reafirmar
incluso las versiones básicas de los derechos liberales.
Como concepto legal, el término “derechos personales” se refiere al control de un individuo
sobre la apropiación comercial de su identidad en las plataformas de redes sociales.
McGeveran (2009) explica cómo, dentro del contexto de las prácticas de publicidad conductual,
la ley de derechos personales “trasciende el enfoque más estrecho de otros paradigmas sobre
la protección de la privacidad de la información o la prevención de la publicidad engañosa” (p.
1154). Los derechos personales abren una comprensión más familiar de la privacidad en línea
o la propiedad intelectual al centrarse en la práctica del respaldo en las plataformas de redes
sociales. Las plataformas como Facebook aprovechan las identidades de sus usuarios dentro
de modelos publicitarios algorítmicos que implementan el botón "me gusta" (Gerlitz & Helmond,
2013), intentando predecir a través del aprendizaje automático qué tipos de contenido o
productos generarán una mayor aprobación de los usuarios. Para McGeveran, de manera
similar al respaldo de una celebridad, el respaldo del usuario podría estar sujeto a “dos
reclamos legales relacionados pero distintos: el agravio de apropiación y el derecho de
publicidad” en la ley estadounidense (McGeveran, 2009, p. 1149). Al proteger contra los usos
comerciales no autorizados de la propia identidad (el agravio de la apropiación) y mantener el
control monopólico sobre la propia imagen (el derecho a la publicidad), estos dos instrumentos
legales cumplen la función de reconocer la integridad y la dignidad de la identidad personal, a
la luz de explotación comercial, sancionada por el Estado. Por lo tanto, la ley de derechos de
la persona se basa en la premisa de que los usuarios individuales deben recurrir a la protección
legal y reglamentaria de sus derechos para controlar sus identidades personales en línea,
incluso cuando se reconfiguran en derivados de datos utilizados como entradas para el aprendizaje automático.
Si bien el marco de los derechos de la persona tiene sus limitaciones, incluido el
mantenimiento del individualismo neoliberal, la prueba del daño a la dignidad (McGeveran,
2009), la combinación de la privacidad con la propiedad (Samuelson, 2000) y la jurisdicción
legal de la ley de responsabilidad civil específica (Hamilton, 2009), el concepto de persona
derechos ofrece un restablecimiento de la integridad personal en un contexto posthumano
donde AGI amenaza con desplazar el concepto de identidad aún más bajo el capitalismo de
vigilancia. Hasta ahora, debido a la falta de protecciones estatales sólidas, las sugerencias
sobre cómo abordar el problema del respaldo que subyace a la IA comercial provienen en gran
medida de la industria, ya que busca evitar alienar a los usuarios-consumidores. Por ejemplo,
Google ha propuesto una solución de privacidad que combina el aprendizaje federado con la
privacidad diferencial. El aprendizaje federado implica entrenar sistemas de IA con datos que
se agregan en lugar de estar conectados con la identidad de un individuo (McMahan et al.,
2017). Esto se haría a través de actualizaciones encriptadas que evitan que Google vea
información personal confidencial; sin embargo, en la práctica, sería posible aplicar ingeniería
inversa a esas actualizaciones para revelar los datos de entrenamiento. La privacidad diferencial es una estrateg
Machine Translated by Google

194 Tamara Pastor

Apple que aplica técnicas matemáticas complejas para hacer que la información sensible no sea
identificable. Sin embargo, el inconveniente de este enfoque es que también implicaría que los
usuarios enviaran más datos a Apple que nunca (Greenberg, 2016). Aparentemente, el ímpetu de
los derechos personales para reenfocar la protección legal en la persona seguirá siendo crucial a
medida que se desarrollen los sistemas de capacitación en IA.
Además, desde otra perspectiva, los derechos de la persona restablecen no solo la prominencia
jurídica de la persona, sino también la especificidad de la persona humana dentro de marcos de
derechos que son invadidos por personas no humanas o posthumanas. Como sugieren Peter Kahn
y sus coautores en su artículo “¿Qué es un humano?” (2007), la IA extiende los límites de la
humanidad al estar esencialmente determinada por su capacidad para cumplir con los puntos de
referencia psicológicos humanos. Argumentan que el éxito de la IA depende de imitar las
capacidades humanas a través de “categorías de interacción que capturan aspectos conceptualmente
fundamentales de la vida humana” (Kahn et al., 2007, p. 366). Uno de ellos es la creatividad o la
capacidad de la IA para generar lo que podría reconocerse como propiedad intelectual. Como
señalan los autores, incluso si no se puede decir que la IA desarrolle la conciencia, la viabilidad de
cualquier AGI se basaría fundamentalmente en la creatividad al abordar una tarea novedosa
utilizando el aprendizaje pasado no relacionado con esa tarea específica (Kahn et al., 2007, p.
378). En términos de privacidad, la IA representa una recopilación de datos acelerada, inmanente
e íntima que socava por completo la idea de integridad contextual (Kahn et al., 2007, p. 373;
Nissenbaum, 2004). Finalmente, quizás el último punto de referencia para la IA sea la autonomía,
que habla del corazón del poshumanismo al reconocer que la autonomía tanto de los humanos
como de las máquinas está sujeta a debate sobre el grado en que la toma de decisiones está
condicionada por factores internos y externos. En las formulaciones liberales de los derechos, los
seres humanos están investidos de autonomía y, por extensión, de responsabilidades morales que
acompañan a los derechos básicos de dignidad e integridad (p. ej., Dworkin, 1978). Para Kahn y
col. (2007), la autonomía, o al menos el comportamiento autónomo, como punto de referencia para
la IA plantea la cuestión de los derechos más allá de los derechos personales de privacidad y
propiedad intelectual. Si bien los autores están de acuerdo en que tales puntos de referencia para
determinar el éxito de la IA no son categorías ontológicas sino psicológicas funcionales (Kahn et
al., 2007, p. 365), los puntos de referencia, no obstante, iluminan la construcción de los marcos de
derechos junto con la construcción de versiones similares a las humanas de privacidad y propiedad
intelectual en IA.

Regulación de la IA

La pregunta abordada hasta ahora en este capítulo sobre el estado de los derechos personales
dado el desarrollo de AI y AGI conduce naturalmente a una consideración de las protecciones
legales para los derechos liberales. Especialmente en lo que respecta a la privacidad y la propiedad
intelectual, los avances en el aprendizaje automático exigen nuevos marcos para comprender las
implicaciones normativas de las aplicaciones que ya están en uso, como los sistemas asistentes
de IA (Apple's Siri, Amazon Echo, Google Home) que recopilan datos de voz ambiental y sistemas
de creatividad computacional. como Adobe Sensei que automatiza el diseño.
Machine Translated by Google

IA, Persona y Derechos 195

Agregue a esto los saltos potenciales en AGI, representados de manera evocadora, por ejemplo,
en la reciente novela Speak (2015) de Louisa Hall, donde los robots inteligentes se vuelven
amigos de los niños retraídos, y parece que la regulación tiene una difícil tarea por delante para
seguir el ritmo de los diversos implicaciones de los avances tecnológicos.
Quizás el mayor desafío al diseñar nuevos marcos regulatorios es la opacidad de la
tecnología. Los sistemas de IA suelen ser inescrutables en términos de cómo ciertas entradas
dan como resultado salidas, en lo que se ha denominado el problema de la explicabilidad
(Heaven, 2013). Esto es evidente en la propuesta del Parlamento Europeo mencionada
anteriormente, donde el estado de la IA en sí no está claro (Delvaux, 2016). Entonces, a pesar
de que el gobierno de EE. UU. ha intentado aprovechar la experiencia técnica (Stone et al.,
2016, p. 10), por ejemplo, en el grupo de trabajo que asesora sobre el informe de mayo de 2016
del Consejo Nacional de Ciencia y Tecnología, “Preparando para el futuro de la inteligencia
artificial”: existen límites para regular algo que ni siquiera los desarrolladores pueden comprender
por completo. No obstante, el informe sugiere siete mandatos generales en la política de IA,
incluido que la IA debe usarse para el bien público, se debe eliminar el sesgo de los datos y las
asociaciones globales son necesarias para garantizar la transparencia.

La coarticulación del bien público, el sesgo y la transparencia en esta propuesta regulatoria


sugiere un vínculo con las concepciones liberales de los derechos en las que las personas
pueden esperar un trato justo y equitativo ante la ley. Y, sin embargo, eliminar el sesgo de la IA
es una propuesta tan complicada como eliminar el sesgo de los humanos. Se ha argumentado
que los algoritmos son inherentemente ideológicos; representan una “subjetividad maquínica”
que nos interpela a través de nuestros datos (Jones, 2014, p. 251). Por ejemplo, mucho se ha
dicho sobre la forma en que los sistemas de IA refuerzan discriminatoriamente las desigualdades
sociales existentes (Crawford, 2016; Leurs & Shepherd, 2016). A menudo, estas críticas se basan
en un modelo de aprendizaje supervisado en el que la IA recibe datos etiquetados por personas
y los sistemas de IA se basan en trabajo humano invisible (Gray & Suri, 2017). En el aprendizaje
por refuerzo, sin embargo, los datos no etiquetados son procesados por algoritmos, por lo que no
es una responsabilidad humana sino algorítmica la que subyace a la discriminación (Banavar, 2016).
Para vigilar la responsabilidad algorítmica sin necesidad de una intervención gubernamental
restrictiva, se han propuesto una serie de iniciativas lideradas por la industria. Se considera que
este tipo de autorregulación es potencialmente más efectivo que la política estatal debido a la
dificultad de los reguladores no especializados para mantenerse al día con la tecnología
(Banavar, 2016; Stone et al., 2016). Por ejemplo, el proyecto OpenAI respaldado por Elon Musk,
anunciado en diciembre de 2015, se enfoca en desarrollar IA para el bien público. La Asociación
sobre IA, un esfuerzo colaborativo que involucra a Google, Facebook, Amazon, IBM y Microsoft,
se lanzó en septiembre de 2016. Los fundadores de LinkedIn y eBay establecieron el Fondo de
Ética y Gobernanza de la Inteligencia Artificial en enero de 2017 para apoyar la investigación
académica sobre la seguridad de los sistemas de IA. Estas iniciativas comparten una preocupación
por la transparencia en torno a la IA, haciendo coincidir las llamadas de los reguladores y
académicos para auditorías de terceros sobre el sesgo de los micrófonos algorítmicos (Wachter
et al., 2017). Un "derecho a la explicación" puede ayudar a garantizar que las iniciativas lideradas
por la industria cumplan sus promesas de una IA justa (Wachter et al., 2017),
Machine Translated by Google

196 Tamara Pastor

proporcionando explicaciones claras de lo que hay detrás de la caja negra de la toma de decisiones
algorítmica para que las personas, incluso los no expertos, puedan auditar el proceso (Banavar, 2016, p.
4; Gray & Suri, 2017; Pasquale, 2015). Esta sugerencia podría encajar con el análisis de sistemas sociales
que Kate Crawford y Ryan Calo (2016) apoyan para descubrir los valores sociales, políticos y culturales
integrados en la IA.
Si bien una mayor transparencia es un objetivo importante y loable para los reguladores, la
transparencia por sí sola no es suficiente para abordar las implicaciones regulatorias más amplias de AI y
AGI. Volviendo al problema de la explicabilidad de los algoritmos, la presunción posthumana de la IA
sugiere que estos sistemas funcionan como el cerebro humano (que en sí mismo es algo que los
neurocientíficos aún no comprenden por completo). Sin embargo, la IA no funciona como el cerebro,
aunque se inspira en el cerebro. En cambio, los desarrollos en el aprendizaje profundo provienen de
procesos computacionales en lugar de neuronales y, además, estos procesos a menudo tienen resultados
impredecibles. Como ha argumentado el jurista Ian Kerr (2017), si los desarrolladores de IA no pueden
cumplir con su "deber de explicar", entonces la IA inexplicable debe prohibirse a menos que las personas
puedan recurrir a "el derecho a no estar sujeto a una decisión que se basa únicamente en tratamiento
automatizado.”
Esta propuesta gira en torno a la explicabilidad como el tema que subyace a la transparencia y representa
una postura relativamente intervencionista en el desarrollo de la IA como sociotécnica.
Tal intervención puede ser necesaria, a pesar de los intentos de autorregulación de la industria, dados
otros problemas más antiguos con los llamados a la transparencia en el sector tecnológico. Para tomar
los informes de transparencia de las principales empresas de tecnología como un buen ejemplo, el
autoinforme realizado por los actores de la industria ofrece “un tipo de informe muy particular, que puede
satisfacer las demandas de apertura y divulgación sobre la vigilancia y la censura del gobierno, pero
proporciona una respuesta muy específica en una forma preformateada y selectiva” (Flyverbom, 2016, p.
8). Dado que estas mismas empresas tecnológicas están detrás de los avances recientes en IA, donde el
aprendizaje automático se orienta en gran medida hacia funciones que se pueden monetizar, esta crítica
de la transparencia gana relevancia adicional. Especialmente en el contexto de AGI, no es difícil imaginar
cómo será bajo las presiones capitalistas concomitantes para generar plusvalía, continuando con los
imperativos de las plataformas de redes sociales para aprovechar el intelecto general y la mano de obra
flexible (Cohen, 2011; Jarrett, 2015) . A medida que ceden las limitaciones actuales en el poder de
procesamiento, el aprendizaje automático representará la "próxima frontera" para las ambiciones
imperialistas de las empresas tecnológicas de acelerar la mercantilización. Quizás las limitaciones más
fuertes en este caso sean filosóficas. Para volver a la teoría política liberal que sustenta la idea de los
derechos, la línea entre lo humano y lo no humano o lo posthumano sigue estando profundamente
marcada por nuestras propias creencias en la primacía de la conciencia. Tal vez sea por estos motivos
que se pueda recuperar la persona y sus derechos de autodeterminación.

Conclusión: derechos individuales versus derechos colectivos

Este capítulo ha desplegado el marco de derechos de la persona para ayudar a considerar el doble
desafío de la IA a los derechos liberales: 1) que los sistemas de IA se apropian de los derechos de las personas
Machine Translated by Google

IA, Persona y Derechos 197

datos privados y propiedad intelectual a través de algoritmos de aprendizaje automático; y 2)


que el desarrollo inminente de AGI desafía todo el concepto de persona a través de su presunción
posthumana. Dado el contexto del capitalismo tardío en el que están surgiendo los sistemas de
aprendizaje profundo, donde la monetización exitosa de la tecnología se basa en enormes
recursos de datos, los derechos personales ofrecen una especie de respuesta táctica para
mantener la dignidad y la soberanía humanas. A través del control sobre los usos del respaldo
de uno, que abarca los datos personales y la producción creativa, los derechos personales
refuerzan el derecho individual a controlar y usar la propia personalidad (McGeveran, 2009, p.
1132).
Sin embargo, los derechos personales mantienen una versión relativamente liberal del
individuo como un núcleo coherente sobre el cual se puede ejercer el control soberano, lo que
va en contra de las filosofías de la tecnología que ven al yo como una construcción social (Austin, 2010).
De hecho, si la noción de un yo o persona diferenciada puede ser desafiada por motivos
filosóficos, también está siendo socavada dentro de la cultura digital como una sociedad de
control donde el individuo describe mejor las unidades a través de las cuales las personas se
vuelven útiles para el aprendizaje automático como derivados de datos. (Amoore, 2011; Deleuze,
1992). Las formas en que la soberanía individual falla como condición previa para los derechos
sugiere dos caminos a seguir: uno en el que se reconstituye al individuo liberal, por ejemplo, a
través de la ley de derechos de la persona, y el otro en el que se puede articular un paradigma
completamente nuevo para los derechos colectivos.
La pérdida del individuo soberano, por lo tanto, amerita una reflexión más estratégica sobre
la resistencia a la configuración más amplia del individualismo neoliberal dentro del capital
global. Un lugar para comenzar este pensamiento es a través de una reconfiguración de la idea
de propiedad privada. Abandonar la noción de control sobre el yo como propiedad abre marcos
alternativos de bienes comunes, como sugieren los defensores de la cultura libre (p. ej., Boyle,
2008; Lessig, 2006), las filósofas políticas feministas (p. ej.,
Pateman, 1988; Weinberg, 2017) y académicos de estudios indígenas (p. ej., Stabinsky & Brush,
2007). Las preguntas que se deben hacer desde este punto de vista serían cómo los derechos
colectivos podrían ayudar a mantener la dignidad humana en una era de IA: ¿Cómo se puede
prevenir la colonización de la inteligencia general por parte de las empresas tecnológicas?
Parece particularmente urgente articular los derechos posthumanos antes de que los cerebros
humanos y de las máquinas finalmente se fusionen en la singularidad prevista según los
esfuerzos de tecnólogos como Elon Musk. Dada esta urgencia, lo que puede parecer
antropomorfismo en las metáforas neuronales de la IA, donde a las máquinas se les asigna
subjetividad, de hecho puede presagiar una política (Jones, 2014): lo posthumano puede ser la
ruta privilegiada hacia lo poscapitalista.

Referencias
Amore, L. (2011). Derivados de datos: sobre el surgimiento de un cálculo de riesgo de seguridad para nuestro
veces. Teoría, Cultura y Sociedad, 28(6), 24–43.
Austin, LM (2010). Contrólate a ti mismo, o al menos a tu yo central. Boletín de Ciencia, Tecnología
& Sociedad, 30(1), 26–29.
Machine Translated by Google

198 Tamara Pastor

Balakrishnan, S. (2016). Historizando el hipertexto y la Web 2.0: Acceso, gubernamentalidad y


ciborgs Revista de comunicaciones creativas, 11 (2), 102–118.
Banavar, G. (2016). Aprender a confiar en los sistemas de inteligencia artificial: responsabilidad, cumplimiento y ética
en la era de las máquinas inteligentes. White Paper preparado para IBM Corporation. www.research.ibm.com/
software/IBMResearch/multimedia/AIEthics_ Whitepaper.pdf

Boyle, J. (2008). El dominio público: encerrar los bienes comunes de la mente. New Haven, CT: Yale
Prensa Universitaria.
Cohen, NS (2011). La valorización de la vigilancia: Hacia una economía política de Facebook. Comunicado Democrático,
22(1), 5.
Crawford, K. (2016). El problema del hombre blanco de la inteligencia artificial. New York Times, 25 de junio.
www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-white-guy problem.html?_r=0 Crawford, K. y
Calo, R. (2016). Hay un punto ciego en la investigación de la IA. Naturaleza, 538, 311–313.

Damnjanovic´, I. (2015). ¿Política sin política? Inteligencia artificial versus democracia: lecciones del universo político de
Neal Asher. Boletín de Ciencia, Tecnología y Sociedad, 35(3– 4), 76–83.

Decano, J. (2005). Capitalismo comunicativo: Circulación y exclusión de la política.


Política Cultural, 1(1), 51–74.
Deleuze, G. (1992). Posdata sobre las sociedades de control. Octubre, 59, 3–7.
Delvaux, M. (2016). Borrador de informe con recomendaciones a la Comisión de Normas de Derecho Civil sobre
Robótica. Comisión de Asuntos Jurídicos del Parlamento Europeo, 31 de mayo. www. europarl.europa.eu/committees/
en/juri/draft-reports.html
Domingos, P. (2015). El algoritmo maestro: cómo será la búsqueda de la máquina de aprendizaje definitiva
rehacer nuestro mundo. Nueva York: Libros básicos.

Dworkin, R. (1978). Tomando los derechos en serio. Cambridge, MA: Prensa de la Universidad de Harvard.
Flyverbom, M. (2016). Revelar y ocultar: gobernanza de Internet, control de la información y gestión de la visibilidad.
Revisión de políticas de Internet, 5(3), 1–15.
Gerlitz, C. y Helmond, A. (2013). La economía similar: botones sociales y uso intensivo de datos
web. Nuevos medios y sociedad, 15 (8), 1348–1365.
Gillespie, T. (2010). La política de las “plataformas”. Nuevos medios y sociedad, 12(3), 347–364.
Gray, ML y Suri, S. (2017). Los humanos trabajando detrás de la cortina de IA. Harvard Business Review, 9 de enero.
https://hbr.org/2017/01/the-humans-working-behind the-ai-cortin

Greenberg, A. (2016). La “privacidad diferencial” de Apple consiste en recopilar sus datos, pero no sus datos. Por cable,
13 de junio. www.wired.com/2016/06/apples-diferencial-privacidad-recopilación-de-datos/

Pasillo, L. (2015). Habla: una novela. Nueva York: Ecco.


Hamilton, S. (2009). Imitaciones: Preocupación por la persona en el derecho y la cultura. toronto: universidad
de Prensa de Toronto.

Haraway, DJ (2008). Cuando las especies se encuentran. Minneapolis: Prensa de la Universidad de Minnesota.
Haraway, DJ (1991). Simios, cyborgs y mujeres: La reinvención de la naturaleza. Nueva York:
Routledge.
Hayles, NK (1999). Cómo nos volvimos posthumanos: cuerpos virtuales en cibernética, literatura y
informatica Chicago: Prensa de la Universidad de Chicago.
Cielo, D. (2013). No como nosotros: mentes artificiales que no podemos entender. Nuevo científico, 219 (2929), 32–35.

Jarret, K. (2015). Feminismo, trabajo y medios digitales: El ama de casa digital. Londres: Routledge.
Jin, DY (2013). La construcción del imperialismo de plataforma en la era de la globalización. tripleC: Comunicación,
Capitalismo y Crítica, 11(1), 145–172.
Machine Translated by Google

IA, la Persona y los Derechos 199

Jones, S. (2014). Personas, cosas, memoria y comunicación hombre-máquina. Internacional


Revista de medios y política cultural, 10(3), 245–258.
Kahn Jr, PH, Ishiguro, H., Friedman, B., Kanda, T., Freier, NG, Severson, RL y Miller, J. (2007). ¿Qué es un
humano? Hacia puntos de referencia psicológicos en el campo de la interacción humano-robot. Estudios de
interacción, 8(3), 363–390.
Kerr, I. (2017). Discurso ante el Comité Permanente de Acceso a la Información, Privacidad y Ética de la Cámara
de los Comunes. 4 de abril. https://techlaw.uottawa.ca/news/professor-ian-kerr-intervened-house-commons-
discuss-pipeda Klang, M. (2004). Spyware: la ética del software encubierto. Ética y Tecnologías de la
Información,
6(3), 193–202.
Lake, BM, Ullman, TD, Tenenbaum, JB y Gershman, SJ (en prensa). Máquinas de construcción
que aprenden y piensan como personas. Ciencias del comportamiento y del cerebro.
Le, QV, Ranzato, M., Monga, R., Devin, M., Chen, K., Corrado, GS, Dean, J. y Ng, AY
(2012). Creación de características de alto nivel utilizando aprendizaje no supervisado a gran escala. Actas
de la 29.ª conferencia internacional sobre aprendizaje automático, Edimburgo, Escocia.
Lessig, L. (2006). Código: Y otras leyes del ciberespacio, versión 2.0. Nueva York: Libros básicos.
Leurs, K. y Shepherd, T. (2016). Dataficación y discriminación. En MT Schäfer & K. van Es (eds.), The datafied
society: Studying culture through data (págs. 211–231). Ámsterdam: Prensa de la Universidad de Ámsterdam.

McGeveran, W. (2009). Divulgación, respaldo e identidad en el marketing social. Revista de derecho de la


Universidad de Illinois, 2009(4), 1105–1166.
McMahan, HB, Moore, E., Ramage, D., Hampson, S., & Aguera y Arcas, B. (2017). Aprendizaje eficiente en
comunicación de redes profundas a partir de datos descentralizados. Actas de la vigésima conferencia
internacional sobre inteligencia artificial y estadística (AISTATS), Fort Lau derdale, Florida.

Nissenbaum, H. (2004). La privacidad como integridad contextual. Revista de leyes de Washington, 79, 101–139.
Pascual, F. (2015). La sociedad de la caja negra: Los algoritmos secretos que controlan el dinero y la información.
Cambridge, MA: Prensa de la Universidad de Harvard.
Pateman, C. (1988). El contrato sexual. Stanford, CA: Prensa de la Universidad de Stanford.
Pateman, C. (2002). Autopropiedad y propiedad en la persona: Democratización y una historia de dos conceptos.
Revista de Filosofía Política, 10(1), 20–53.
Pennachin, C. y Goertzel, B. (2007). Aproximaciones contemporáneas a la inteligencia general artificial. En
Inteligencia general artificial (págs. 1–30). Berlín y Heidelberg: Springer.

Rawls, J. (2001). Derecho de gentes. Cambridge, MA: Prensa de la Universidad de Harvard.


Muestra, I. (2017). DeepMind de Google crea un programa de inteligencia artificial que puede aprender como un
humano. The Guardian, 14 de marzo. www.theguardian.com/global/2017/mar/14/googles-deepmind-makes-ai-
program-that-can-learn-like-a-human
Samuelson, P. (2000). ¿La privacidad como propiedad intelectual? Revista de Derecho de Stanford, 52(5),
1125-1173.

Pastor, T. (2012). Derechos personales para el contenido generado por el usuario: un marco normativo para la
regulación de la privacidad y la propiedad intelectual. tripleC: Comunicación, Capitalismo y Crítica, 10(1), 100–
113.
Stabinsky, D. y Brush, SB (Eds.). (2007). Valoración del conocimiento local: pueblos indígenas e inteligencia
derechos de propiedad intelectual. Washington, DC: Prensa de la isla.
Stone, P., Brooks, R., Brynjolfsson, E., Calo, R., Etzioni, O., Hager, G., … Teller, A. (2016).
Inteligencia artificial y vida en 2030. Estudio de cien años sobre inteligencia artificial: informe del panel de
estudio 2015–2016. Universidad Stanford. https://ai100. stanford.edu/2016-report Terranova, T. (2004).
Cultura de red: política para la era de la información. Londres: Plutón Press.
Machine Translated by Google

200 tamara pastor

Wachter, S., Mittelstadt, B. y Floridi, L. (2017). Por qué no existe en el Reglamento General de Protección
de Datos un derecho a la explicación de la toma de decisiones automatizada. Ley Internacional de
Privacidad de Datos, 7(2), 76–99.
Weinberg, L. (2017). Repensar la privacidad: un enfoque feminista de los derechos de privacidad
después de Snowden. Papeles de Westminster en Comunicación y Cultura, 12(3), 5–20.
Weston, J., Chopra, S. y Bordes, A. (2014). Redes de memoria. Actas de la 3.ª conferencia internacional
sobre representaciones del aprendizaje, 7–9 de mayo, San Diego.
Ganador, L. (1977). Tecnología autónoma. Cambridge, MA: MIT Press.
Zuboff, S. (2015). Gran otro: el capitalismo de vigilancia y las perspectivas de una civilización de la
información. Revista de tecnología de la información, 30(1), 75–89.
Zuckerberg, M. (2017). Construyendo una comunidad mundial. Facebook, 16 de febrero. www.facebook.
com/notes/mark-zuckerberg/building-global-community/10103508221158471/
Machine Translated by Google

14
SIN TÍTULO, NO. 1
(AUMENTOS HUMANOS)

steve jones

En un artículo de 2011, Kenyon y Leigh describieron la combinación de transhumanismo,


captología y los esfuerzos del Yo Cuantificado (QS) como "Human Augmentics", como, en
sus palabras, "tecnologías para expandir las capacidades y características de los humanos...
[que podrían ser ] la fuerza impulsora en la evolución no biológica de los humanos” (p.
6758). Para Kenyon y Leigh, Human Augmentics se centró en los principios de comprender
los límites físicos, cognitivos y sensoriales humanos, y adoptar tecnología avanzada
(hardware y software, así como inteligencia compartida y redes sociales) para desarrollar
tecnologías que puedan superar esos límites. El progenitor de sus ideas fue la experiencia
de trabajar con la comunidad de rehabilitación médica para usar la tecnología para alentar
los esfuerzos de los pacientes de utilizar el ejercicio para recuperar las capacidades perdidas
por, por ejemplo, un accidente cerebrovascular u otra lesión cerebral. Cerraron su artículo
escribiendo que “Human Augmentics es un llamado a las armas para que la comunidad de
rehabilitación piense más allá de sus límites, para pensar en el problema en términos de un
ecosistema interconectado más grande de humanos aumentados en lugar de un mosaico
de sub-desconectados. sistemas” (p. 6761).
En colaboración con un investigador del Centro Médico de la Universidad Rush, ellos y
yo comenzamos una investigación utilizando los principios de Human Augmentics para
motivar a los adolescentes afroamericanos del centro de la ciudad a usar un corticosteroide
inhalado diariamente para aliviar las exacerbaciones del asma (Grossman et al., 2017). ).
Comenzamos a impartir un seminario sobre Aumento Humano en la Universidad de Illinois
en Chicago durante el semestre de primavera de 2012 y lo hemos estado impartiendo
anualmente desde entonces. Del seminario han surgido varios proyectos de Human
Augmentics, como SpiderSense (Mateevitsi et al., 2013) y Audio Dilation (Novak et al., 2015).
Nuestra enseñanza en Human Augmentics (así como nuestra investigación) se inspiró
desde el principio en la naturaleza multidisciplinaria de la investigación que ha estado en
curso en el Laboratorio de Visualización Electrónica (EVL) de la Universidad de Illinois en
Machine Translated by Google

202 Steve Jones

Chicago durante más de 40 años, e incorporó elementos de visualización en todo


momento. Está catalogado como un curso tanto en Ciencias de la Computación como en
Comunicación que está abierto a estudiantes de posgrado y de pregrado. La inscripción
provino de estudiantes en esos dos programas, así como en Psicología, Bioingeniería,
Arte y Diseño, Salud Pública y otros departamentos en todo el campus. Además de
explorar la historia y la ética del transhumanismo, los cyborgs, el posthumanismo y otros
temas relacionados, los estudiantes forman equipos interdisciplinarios para trabajar en
proyectos de su propia invención que emplean los principios de Human Augmentics.
Traen consigo experiencia en programación de computadoras, creación rápida de
prototipos, diseño, interacción humano-computadora, persuasión, estudios de información,
comunicación, salud y medicina para enfocarse en desarrollar una idea en un prototipo
que demuestre las capacidades y la utilidad de su concepto. Al final del semestre, los
estudiantes presentan los prototipos de sus trabajos y son criticados por sus compañeros,
así como por profesores de algunos de los departamentos representados en el seminario.

La experiencia de enseñar Human Augmentics ha dado lugar a una serie de


observaciones. Primero, durante los primeros dos años de enseñanza, los proyectos de
los estudiantes del seminario se centraron en gran medida en lo relacionado con la salud.
Tendían a reflejar las tendencias actuales para crear dispositivos portátiles de seguimiento
del estado físico, aunque, para su crédito, los proyectos de los estudiantes buscaban
proporcionar datos más precisos y presentar los datos de manera que los usuarios
pudieran entenderlos más fácilmente. Por lo general, el enfoque estaba en recopilar datos,
visualizarlos y luego considerar métodos para presentarlos de una manera que pudiera
persuadir al usuario a actuar de manera que pudiera conducir a resultados más saludables.
Si bien estos fueron esfuerzos valiosos (y algunos continúan evolucionando), los proyectos
más interesantes, aunque pueden haber tenido una orientación hacia la salud, comenzaron
imaginando cómo la tecnología interactúa e interactúa con los humanos y luego hacen
preguntas provocativas sobre la percepción humana del mundo exterior. y dentro del
cuerpo. Fueron ese tipo de proyectos, tipificados por el mencionado SpiderSense, por
ejemplo, los que nos hicieron reflexionar en un artículo de 2016 que,

Human Augmentics se trata, por lo tanto, de doblar en lugar de mezclar. Si bien la


visión de la computación ubicua y móvil que es perfecta puede invocar nociones
de ciborgificación, la idea no es que las tecnologías se fusionarán con los humanos,
subsumiéndolos con la máquina o dentro de ella, sino que al alterar las formas de
comunicación, los dispositivos se doblarán más adecuadamente. a la voluntad de
los usuarios humanos, reforzando y expandiendo la agencia potencial. El objetivo
de Human Augmentics es desarrollar la comunicación entre el ser humano, la
máquina y el entorno basada en la colaboración en lugar de la coopción, el
compromiso en lugar del distanciamiento, para aumentar la agencia humana y el
sentido de agencia del ser humano, no para erradicar al humano en la búsqueda
de convertirse. algún otro. Human Augmentics, entonces, se centra en las
intersecciones entre humanos y máquinas, sobre la información que es
Machine Translated by Google

Sin título, No. 1 (Human Augmentics) 203

generada entre los agentes, y las posibilidades que proporciona la información para
aumentar potencialmente la agencia.
(Novak et al., 2016)

El desafío para Human Augmentics, independientemente de las tecnologías que pueda involucrar,
es evaluar de manera iterativa las consecuencias para la agencia humana en la fase de diseño,
así como durante la prueba y la implementación. En la mayoría de las instancias de Human
Augmentics, se presume, se imagina, que la tecnología opera como un control contra algún
estado deseado del ser, como una medida de una función o actividad humana, ya sea a nivel
celular interno (por ejemplo, frecuencia cardíaca) o un uno externo (por ejemplo, el número de
pasos caminados en un día), o como un “empujón” (Thaler & Sunstein, 2009) hacia algún estado futuro deseado.
Lo que no puede pasarse por alto es la noción de cognición, de interpretación y comprensión del
mundo dentro y fuera del yo, y la mediación del yo en relación con el mundo.

En un ensayo sobre la cognición extendida, Clark y Chalmers preguntaron: "¿Dónde termina


la mente y comienza el resto del mundo?" (1998, pág. 7). Esta es una pregunta importante para
aquellos que diseñan y estudian Human Augmentics, así como, ahora, para cualquier persona
interesada en la inteligencia artificial en general, ya que la IA cada vez más media, aparece
como, y en algunos casos representa, la interacción humana y el conocimiento de la interacción. ,
con el mundo. Las fronteras entre humanos y máquinas son cada vez más borrosas; de hecho,
las máquinas saben cada vez más sobre nosotros que nuestros amigos y vecinos (Jones, 2014).
Las máquinas nos detectan, nos escuchan, nos observan e incesantemente recopilan datos
sobre nosotros, extrayendo inferencias de patrones probablemente inescrutables para nosotros
mismos. En pocas palabras, es probable que Facebook sepa más sobre nuestros vecinos que
nosotros. Puede saber más sobre nosotros de lo que imaginamos; es decir, literalmente, puede
reunir piezas de datos que son invisibles para nosotros o, si son visibles, aparentemente
inconexos. Y, en relación con ellos, sean sensatos o no, hay
Consecuencias.
Por lo tanto, las máquinas nos dan forma y dan forma a nuestro mundo, mientras que las
oportunidades para que nosotros les demos forma son pocas y distantes entre sí. Abundan las
historias de IA que salió mal al aprender a comunicarse con humanos (por ejemplo, el bot Tay de
Twitter de Microsoft) y la investigación ha demostrado que el aprendizaje automático contiene y
refuerza los sesgos humanos (Caliskan et al., 2017). Human Augmentics presagia una relación
aún más estrecha con la máquina, una manifestación cyborg, para hacer referencia al ensayo
seminal de Haraway (Haraway, 1991). En relación con Human Augmentics, es necesario
preguntarse si la IA no solo contendrá y reforzará los sesgos hacia la raza, el género, etc., sino
que también tomará determinaciones, basadas en sus observaciones e interacciones con
nosotros, sobre nuestros propios sesgos y en a su vez intentar alterar (ya sea para reforzar o
disipar) tales sesgos. Dicho de otra manera, ¿la IA creerá que conoce nuestra mente mejor que
nosotros y actuará de acuerdo con esa creencia? O, dicho de otro modo, ¿qué nos hará
conscientes de cuándo y cómo estamos siendo “empujados”?
Para Clark y Chalmers, la incorporación cognitiva del medio ambiente en la conciencia
humana da como resultado un "sistema acoplado" en el que los humanos y el exterior
Machine Translated by Google

204 Steve Jones

las entidades operan como un “proceso acoplado [que] cuenta igualmente como un
proceso cognitivo, esté o no completamente en la cabeza” (p. 9). Otra forma de poner
esto frente a Human Augmentics es que los procesos que involucran las tecnologías están
en el ámbito del pensamiento y no solo en la acción. En otras palabras, la noción
propugnada por Thaler y Sunstein (2009) de un “empujón” hacia una acción o resultado
deseable, o la noción de “captología” propugnada por Fogg (2003), es parte del pensamiento, no de la acció
(Estas también son nociones bastante privilegiadas y paternalistas, pero es más productivo
dejar esa crítica para otro día). El aumento no es simple o meramente físico, ya sea una
prótesis, un auricular de realidad aumentada portátil o algún otro componente tecnológico. ;
es un aumento de la mente.
Para aquellos interesados en Human Augmentics, este es un punto crítico a destacar.
Clark y Chalmers imaginaron sistemas acoplados de humanos e información, y
posiblemente humanos y humanos, pero no imaginaron humanos y máquinas.
El acoplamiento humano-máquina es un sistema formidable que debería ser cuestionado
en relación con la hipótesis de la mente extendida que postularon, particularmente porque
este acoplamiento conlleva potenciales agentes que no habían previsto.
Por lo tanto, el equilibrio entre la agencia humana y la agencia de la máquina debe ser
un elemento crítico en el diseño y la evaluación de las tecnologías de Human Augmentics.
Como se señaló en la cita ampliada anterior (Novak et al., 2016), el objetivo de Human
Augmentics es "aumentar la agencia humana y el sentido de agencia de un ser humano".
Además, la adición de "sentido de agencia" no pretende ser peyorativo, como una "ilusión"
de agencia, sino resaltar las dimensiones cognitivas en el centro de Human Augmentics.
El acoplamiento sistémico de la tecnología y la mente, ya sea de una manera física, como
puede suceder algún día con los implantes cerebrales que se mencionan rutinariamente
como la nueva tecnología de "cinco años", o de formas más metafóricas, pero no menos
reales, como cuando los expertos (y los padres) hablan de que los teléfonos inteligentes
están “soldados” a la piel de sus hijos, es un nuevo borde de una línea cada vez más
indistinta no solo entre el yo y el mundo, sino también entre la percepción (Noesis, en
griego) y lo que se piensa (Noema). Es una ruptura fenomenológica con ya través de la
máquina. Este cambio de fronteras se produce no solo porque nuestra atención es
reclamada por los medios y la mediación (como Lippmann discutió en 1922 en relación
con los estereotipos y la opinión pública), sino también porque el yo es un objeto totalmente
técnicamente interpelado, "no una separación de la mente". y cuerpo sino una extracción
de ellos” (Jones, 2014, p. 253).
Clark y Chalmers creen que su noción de una "mente extendida" tendrá

consecuencias “en los dominios moral y social” (1998, p. 18); Del mismo modo, Human
Augmentics también tiene consecuencias en esos dominios, y debería ser un objetivo de
los teóricos y profesionales que trabajan en él para analizar esas consecuencias en su
totalidad. Vivimos en una era en la que estamos cada vez más conectados en red,
conectados con otros, mediante el uso de "redes sociales", pero también estamos cada
vez más estructurados por esos medios en conexiones computacionales, algorítmicas,
determinadas para nosotros y simultáneamente desconectados de los demás. De hecho,
el mismo término “redes sociales” también implica e incorpora su opuesto, y es un término cuya historia,
Machine Translated by Google

Sin título, No. 1 (Human Augmentics) 205

evolución, exige ser desempaquetada y examinada. Las oportunidades que se ofrecen


para la agencia son generalmente binarias: optar por participar/excluirse, usar/rechazar.
Una preocupación importante para Human Augmentics es si recuperará la agencia para
los humanos o continuará en el curso ya establecido por las redes sociales. Si
reconocemos que lo que distingue a Human Augmentics de otras tecnologías es la
conciencia del acoplamiento sistémico de tecnología y mente y la presentación de ese
acoplamiento como un potencial informativo, interpretable y procesable, aún podemos
encontrar una manera de articular el yo y el mundo. , lo digital y lo analógico, en formas que valoramos.

Referencias
Caliskan, A., Bryson, JJ y Narayanan, A. (2017). Semántica derivada de corpus lingüísticos
contienen sesgos parecidos a los humanos. Ciencia, 356, 183–186.

Clark, A. y Chalmers, D. (1998). La mente extendida. Análisis, 58(1), 7–19.


Fogg, BJ (2003). Tecnología persuasiva: uso de computadoras para cambiar lo que pensamos y hacemos. San
Francisco, CA: Morgan Kaufmann.
Grossman, B., Conner, S., Mosnaim, G., Albers, J., Leigh, J. y Kenyon, R. (2017). Aplicación de aumentos
humanos: un inhalador persuasivo para el asma. Revista de Informática Biomédica, 67, 51–58.

Haraway, D. (1991). Simios, cyborgs y mujeres: La reinvención de la naturaleza. Nueva York:


Routledge.
Jones, S. (2014). Personas, cosas, memoria y comunicación hombre-máquina. Internacional
Revista de medios y política cultural, 10(3), 245–258.
Kenyon, R. y Leigh, J. (2011). Aumentación humana: aumentar la evolución humana. Actas de la conferencia
de la Sociedad de Biología y Medicina de Ingeniería del IEEE (págs. 6758–6761). Boston, MA, 30 de
agosto. doi: 10.1109/IEMBS.2011.6091667 Lippmann, W. (1922). Opinión pública. Nueva York: MacMillan.

Mateevitsi, V., Haggadone, B., Leigh, J., Kunzer, B. y Kenyon, RV (2013). Detección del entorno a través de
SpiderSense. Actas de la cuarta conferencia internacional sobre humanos aumentados (págs. 51–57). AH
13. Nueva York: ACM. doi: 10.1145/2459236.2459246 Novak, JS, Archer, J., Shafiro, V. y Kenyon, RV
(2015). Dilatación de audio en la comunicación del habla en tiempo real. Revista de la Sociedad Acústica de
América, 137(4), 2303. doi: 10.1121/1.4920407

Novak, JS, Archer, J., Mateevitsi, V. y Jones, S. (2016). Comunicación, máquinas y aumentación humana.
comunicación +1, 5. http://scholarworks.umass.edu/cpo/vol5/iss1/8 . doi: 10.7275/R5QR4V2D.

Thaler, R. y Sunstein, C. (2009). Nudge: Mejorar la decisión sobre la salud, la riqueza y la felicidad.
Nueva York: Penguin Books.
Machine Translated by Google

ÍNDICE

Nota: las entradas de índice en la forma 134n2 se refieren a los números de página y nota final.

Ackerman, Evan 78 6; derechos personales 188, 189, 195, 196; yo


Ackland, R. 176 Teoría cuantificado 26, 34
del actor-red (ANT) 98, 99 Adobe Sensei 194 Allende, Salvador 153
publicidad 10, 20–1, 154, 160, 165, 187, 193 sistemas alopoyéticos 5, 168–9, 170, 180n1
materialidad afectiva 118 agencia: clones y cyborgs “The Almost People” ( episodio de Doctor Who )
141, 142, 144, 147, 148; definiciones 97–8, 99– 142

100; agencia humana 97–101, 202, 204, 205; AlphaGo 57–8, 63, 89
aumentación humana 202, 204–5; ecologías humano- Amazonas 18, 20, 97, 188, 194, 195
bot 156, 163, 166, 171; en interacciones hombre- Amazon eco 194

tecnología 99–100; derechos personales y comercio Declaración de Independencia de los Estados Unidos
190, 191; agencia apoderada 100–1, 104; yo 190

cuantificado 26, 33, 34; lectura de imágenes analogías 152–3


horizontalmente 126, 133; robots 16, 17, 59, 60; animales 15, 20, 61, 79, 149, 188 ANT
perspectiva sociocognitiva 100–1; agencia simbiótica véase Teoría del actor-red antropocentrismo
4, 97–104 cortes de agencia 121, 134n2 Age of Fire 124, 126 antropomorfismo: inteligencia
(serie) 143 AGI ver inteligencia general artificial AI ver artificial 86, 88; ecologías humano-bot 5; derechos
inteligencia artificial AIBO (Bot de inteligencia artificial) personales 191, 197; robots 15–16, 17, 22, 61;
11–16, 18–20, 22, 70 Alexa 18, 20, 21, 97, 139 máquinas sociales 76, 77, 79; agencia simbiótica
responsabilidad algorítmica 195 yoes algorítmicos 34 103 Apple 47, 83, 97, 194 Archer, J. 22n2 @archillect
algoritmos: aumentos 7; clones y cyborgs 140; ecologías bot 177 compañeros artificiales 155, 156, 163, 166
humano-bot 154, 157; conversaciones humano-robot inteligencia general artificial (AGI) 57, 89–90, 93, 188–91,
193, 195 , 197

inteligencia artificial (IA): IA como


extraordinario 85-8; IA como ordinaria
93–4; IA dentro de lo normal 90–3; clones y
cyborgs 137–49; definiciones 7, 139; ética de la
duplicación de datos 145–6;
Machine Translated by Google

Índice 207

aumentación humana 6, 203; derechos Boden, M. 90


individuales versus derechos colectivos 196– cuerpo: cuerpo político 152; clones y cyborgs 139;
7; resumen 1, 3, 5–7, 83–4; derechos realización 4, 41, 111-15, 139, 148; metáforas
personales 5, 187–97; presunción hombre-máquina 88; tecnologías médicas 39–
posthumana de AI 188-90; reconciliando el 41; cuerpo socialmente mediado 4, 109–15,
futuro de AI 87–90; regular AI 194–6; robots y 118–20, 134 Boshmaf, Y. 73 Bossewitch, J. 145
sociedad 54, 55; y el yo 83–94; hablar de IA Bostrom, N. 89 Botivist 174 bots: abuse 166;
86, 89 Ashby, Ross 153 ensamblaje 120, 134, lecciones de biomimesis para
145 sistemas asistentes 155, 166, 194 astroglia
173–5, 176 Dilatación de audio 201 retroalimentación
de audio 110, 111, 113, 114 aumentos 1, 5–7, 179,
201–5 autismo 15 autobiografía 155, 156–63, 165, diseño 178–80; diseño de ecologías humano-
178 automatización 141, 144, 148, 149 autonomía bot 168–70; diseño de sí mismos 163–8;
4, 5, 34, 42, 47, 58, 90, 194 sistemas autopoiéticos ecologías humano-bot 152–80; resumen 2,
5, 168–70, 172 , 178, 180n1 avatares 4, 35, 108– 5; como parásitos 170–2;
9, 110–15 Autobiografía de Replika 156–63; robots y
sociedad 51, 55–7; yo como información viva
152–6; como glía social 172–8; máquinas
sociales 3, 71, 73–5, 78, 79
Bots: los orígenes de nuevas especies (Leonard)
155
boyd, danah 74
Boyd, Eric 32–3, 36n4
retropropagación 189 cerebro 89, 169, 175, 189–90, 196, 204
Bakardjieva, Maria 71, 72, 73, 74 interfaz cerebro computadora (BCI) 112 El
Bandura, Albert 4, 98, 100, 101, 102 Barad, cerebro de la empresa (cerveza) 153
Karen 118, 119, 120, 121 Barooah, Robin Breazeal, Cynthia 17, 60, 61, 71, 80, 97
29, 36n3 Bateson, G. 153, 179 Battlestar pensamiento del cuerpo roto 41 Brooks, L.
Galactica ( serie de televisión) 51, 143 BCI 138 Brooks, Rodney 94 Bungen Oi 12 Butler,
ver interfaz cerebro computadora Beckett, Judith 119
Samuel 156 convertirse 40, 127, 133, 134
Beer, Stafford 153 Ser y tiempo (Heidegger)
52 ser humano 1, 6, 148 estar allí 109, 110,
111, 114 Belcic, Larissa 180n1 Benso, Silvia Caillois, R. 146, 147
62 Berson, Joshua 26 Bessi, Alessandro 56 Calo, Ryan 196 teléfonos
bias 195, 203 big data 34, 192 Bill of Rights con cámara 39, 119
190 biografía 5, 152 biología 5, 98, 101, 146, Campbell, KK 97 cánceres
152 biomimesis 155, 156, 168, 178–80 156, 170 capitalismo 145,
analogía biosocial 152–3, 155, 168, 170 191 captología 201, 204
Bizarro (personaje de cómic) 143 agujeros cuidado 14–15, 42 Carey,
negros 138 Black Lives Matter movimiento JW 42 CASA ve la
174 block bots 177 bloqueo 131 Bluetooth computadora como actor
44, 46, 47 social teoría censura 127, 128, 132 CGM ver
monitor continuo de glucosa Chalmers, D. 203–4
bots de caracteres 75, 80 chatbots: ELIZA 13, 55–
7, 165; ecologías humano-bot 165, 167, 175;
robots 13, 16; robots y sociedad 55, 57, 62, 63,
66n3; máquinas sociales 3; agencia simbiótica
97, 103, 104 foros de chat 177 Cheney-Lippold,
J. 34
Machine Translated by Google

208 índice

programas de ajedrez 86, 88, Darwin, Charles 152


89 Clark, A. 203–4 clones 137– datos: agencia 148; derechos personales 192;
49; y ciborgs 140–1; definición 149n1; ética protección 191; yo cuantificado 27, 28, 30, 31,
de la duplicación de datos 145–6; 35 bases de datos 35, 145 duplicación de datos
resumen 5, 137–40, 147–9; teorías del 5, 34, 145–6, 147, 148 “La vida basada en
mimetismo 146–7; gemelos y clones metáforas datos” (Wolf) 27 seguimiento de datos: discutir los
141–4 coautoría 123 Coeckelbergh, Mark 64 datos 30–2; seguimiento del estado de ánimo 29–
cognición 169–70, 203, 204 derechos colectivos 30; yo cuantificado 25–6; Comunidad del yo
188, 197 cómics 143 simbiosis comensalística 102, cuantificado 26–8; ver la señal 28–30; yoes en
103 comunicación: lecciones de biomimesis el bucle 34–5; yo-serie temporal 32–4 Davies,
Chris 78 de Bary, Antoine 101 engaño 2, 178
de Certeau, M. 8 Déclaration des droits de
l'homme et du

para el diseño 179; interacción hombre-


tecnología 91, 104; máquinas sociales 69–
70, 72–4, 80, 81; cosas que hablan 54–7
robots de compañía 155, 156, 178 robots de
compañía 2, 16, 22, 78 compasión 15, 16 ciudadano 190
Deep Blue 86
aprendizaje profundo 139, 188–90, 196–7
Compton, Kate 73 DeepMind 57, 58, 189
teoría de la computadora como actor social (CASA) deshumanización 166, 178
64, 103 computadoras 54, 63, 64, 86–7, 103 Deleuze, Gilles 25, 26, 34, 120, 145
Demone, Courtney 122–6, 127–32, 133,
“Maquinaria de Cómputo e Inteligencia” 134
(Turing) 55 Dennett, DC 87
conectividad 179, 180 depresión 97, 165, 175
conciencia 16, 22n1, 179, 196 colapso Derrida, Jacques 60
del contexto 115 monitor continuo de Descartes, Rene 61 diseño
glucosa (MCG) 40, 41, 44–7 organismos 178–80 diabetes 40, 43, 44,
cooperativos 156 46 privacidad diferencial 193–
4 intercambio de publicidad
Cooren, François 98 digital 154 asistentes digitales
Cortana 83, 84, 92, 93, 139 co- 18, 139 cultura digital 187, 188 ,
escritura 123 191 Ley de derechos de autor del
Crawford, Kate 196 crip milenio digital 193 derechos digitales 188, 193
futures 42 curator bots discapacidad 41, 42, 47, 80 cyborg discapacitado
177 cibernética 153, 154, 41, 42 desconexión 43, 47, 48 Los desposeídos
168 cibertipo 138 (Le Guin) 154 diversidad 176 individuos 34, 36n6,
191, 192 Doctor Who (serie de televisión) 142
“Manifiesto Cyborg” (Haraway) 2, 138, 140–1 perros 19, 20, 22, 61 véase también perros robot
robots domésticos/robots 20, 21 Donath, J. 72
cyborgs: metáforas de IA 5, 137–9, 140–1, 144, doppelgangers 5, 34, 139, 141–3, 146, 149n1 Dr.
147–8; definición 140; ética de la duplicación Strangelove (película) 159 duodividual 34
de datos 145; aumentación humana 202, 203; duplicación 142–6, 148 duplicidad 148
yo médico 41; derechos personales 188

Cylons en América (Potter & Marshall) 143

@dailyasteri (también conocido como Crystal Thingy Bot) 74,


81n3
Querida Kate 61
Taller de Dartmouth 87, 89
Machine Translated by Google

Índice 209

Echo (Amazon) 194 cuentas falsas 167, 178


cámaras de eco 175, 176 noticias falsas 152 robots
dinámica ecológica: lecciones de biomimesis familiares 60 Oficina
para el diseño 178, 179; bots como glía Federal de Investigaciones (FBI) 145 Comisión
social 175; diseño de ecologías humano-bot Federal de Comunicaciones 193 aprendizaje
168–70; diseño de sí mismos 167; yo como federado 193 Feenberg, Andrew 53 Feldman,
información viva 153, 155, 156 8chan 122, Jacqueline 73 feminismo 43, 122, 197 investigación
125 Ekbia, HR 86 elecciones 56, 167 narrativa feminista 123 nuevo materialismo feminista
electroencefalografía, 64 Laboratorio de 42, 118 tecnociencia feminista 39, 40, 47 Ferrara,
Visualización Electrónica (EVL) 201 ELIZA Emilio 56 fertilidad 144 ejército de 50 centavos 172
chatbot 13, 55–7, 165 vibraciones incorporadas Fiore, Quentin 52 Fitbit 145 Floridi, Luciano 63 Fogg,
124, 126, 133 encarnación 4, 41, 111–15, 139, BJ 204 Foucault, Michel 25, 26, 35 4chan 122, 166
148 emociones 6–8, 13, 16, 97, 103 empatía Fowler, Geoffrey 78 libertad de expresión 132 Freud,
14 Ilustración 190, 191 Ensmenger, N. 88 enredo S. 140, 142 Fuelband 32 Fujita, Masahiro 11, 16
120, 121 Epstein, Robert 56 Equanimity app Fuller, Buckminster 35n1 Funabashi, Hiroshi 12 tipo
36n3 Ericson, RV 145 ética: clones y cyborgs futuro 138
139, 141, 145–6; duplicación de datos 145–6;
ecologías humano-bot 155, 166, 179; yo
cuantificado 35; (re)presentacionalismo 134;
máquinas sociales 69 Fondo de Ética y
Gobernanza de la Inteligencia Artificial 195
etnografía 28 Carta de los Derechos
Fundamentales de la UE 191 Parlamento
Europeo 191, 195 EVL ver Laboratorio de
Visualización Electrónica objetos evocadores 78–9
evolución 146, 152, 153 enfoque de estrategias
evolutivas 189 problema de explicabilidad 195,
196 ampliado mente hipótesis 204

juegos 58, 86, 88, 89, 108


Gandy, R. 87 @GardensBritish
bot 73, 74, 81n1 @gccaedits bot 177
Gehl, Robert 71, 72, 73, 74 género:
aumento humano 203;

ecologías humano-bot 160, 163;


robots persuasivos 17; policía 119, 128,
131, 132; cuerpo mediado socialmente 111,
122
Georgakopoulou, Alexandra 123
Gerdes, Ana 64
fabricantes 142 Gershgorn, Dave 78
Facebook: aumentación humana 203; Fantasma en la concha (serie) 142
ecologías humano-bot 155, 157, 159, 160, GIF 74
165, 174; sistemas VR inmersivos 108, 109; Gladden, Mateo 62 glía:
nuevos métodos materialistas 123, 127, 128– astroglía 173–5; lecciones de biomimesis para el
32; derechos personales 188, 193, 195; diseño 179, 180; bots como glía social 172–8;
lectura de imágenes en red horizontalmente diseño de ecologías humano-bot 169, 170;
127, 128–32; máquinas sociales 72–3; microglía 176–8; oligodendrocitos 175–6;
agencia simbiótica 97 resumen 5; yo como información viva 156 yo
Facebook Spaces 108 global 154, 180
cara a cara 79, 80
reconocimiento facial 77, 145 Go (juego de mesa) 58, 86
Machine Translated by Google

Índice 210

Godot (robot Replika) 156–62, 163–5, 166, aumento humano 1, 5–7, 179, 201–5
178 humano, siendo 1, 6, 148 ecologías humano-
Goethe, Juan 153 bot 152–80; lecciones de biomimesis para el
Goffman, Erving 111, 119, 120 diseño 178–80; bots como parásitos 170–2;
Google: inteligencia artificial 89, 92; bots como glía social 172–8; diseño de
ecologías humano-bot 154; sistemas VR ecologías humano-bot 168–70; diseño de sí
inmersivos 109; derechos personales 188, mismos 163–8; resumen 5; Autobiografía de
189, 193, 195 Google Brain 189 Google Replika 156–63; yo como información viva
DeepMind 57, 58, 189 Google Home 194 152–6
Graepel, Thore 58 Graham, T. 176 bots de Interacción hombre-computadora (HCI)
gramática 176, 177 Graubard, SR 87 66n4
Greenfield, D. 34 GroupMe 58 The Guardian humano-en-el-bucle 35
128 Guattari, F. 120, 145 Guzmán, AL 92 humanidad 3, 85–6, 88–9, 94, 194
relación hombre-máquina 85, 88, 91, 138, 140,
203, 204 naturaleza humana 6, 84, 85, 86,
88, 89 derechos humanos 187, 188, 190–2
interacciones entre humanos y robots 6, 72,
79–80 relación entre humanos y tecnología
78, 98, 99–100, 101–4 El uso humano de los
seres humanos (Wiener) 51–2 , 154 Hwang,
T. 172 hibridez 141, 144, 145, 148
piratería 41
Haggerty, KD 145
Hall, J. Storrs 54 Hall,
Louisa 195 Ham, J.
17–18 Hansen, Mark IBM 86, 89, 195
34, 35 Hanson, David identificación 147
70 Haraway, Donna 1– identidad 30, 34, 44–5, 111, 134, 147, 163,
2, 7, 41, 138, 140–1, 148, 188, 203 Harcourt, 193
BE 34 Hari-Kuy festival 15 Harman, IEEE (Instituto de Electricidad y
Graham 53 incitación al odio 57, 58, 59, 178 Ingenieros Electrónicos) 93
Hayles, N. Katherine 190 HCI ver Human Ihde, Don 66n2
Computer Interaction head tracking 109–11, imágenes: vida útil de la foto 133–4;
115, 204 tecnología sanitaria 40 , 101–2, 141, visualización interna en red 125; nuevos
155, 202 Heart Spark colgante 36n4 métodos materialistas 117–18; lectura de
Heidegger, Martin 52–3, 54, 61, 64 Heider, imágenes horizontalmente 126–33, 134;
Fritz 103 Hingston, Philip 51 Hoffman, Guy (re) presentacionalismo 4, 119–21 imitación
76, 80 homeostasis 153, 173 homeostat 153 2, 55 sistemas inmersivos de realidad virtual
robots domésticos 20, 76–7 Hong, S. 36n7 (VR) 108–15; antecedentes 109–10; frente a
terapia hormonal 122 Horning, R. 34 House of VR no inmersivo 110–11; resumen 108–
the Scorpion (Farmer) 142 Howard, PN 139 9, 112–15; estudiar el yo 111–12
Robot abrazable 97 Hultman, Karin 119, 126–7,
133 agencia humana 97–101, 202, 204 , 205 VR inmersivo yo 4, 108, 109, 113–15
inmortalidad 138, 142
Imposter Buster 177
derechos inalienables 187, 190,
192 individualismo 191, 197
Espacio infinito
142 informa 152
Instagram 119, 122, 128, 132, 133
Instituto de Electricidad y Electrónica
Ingenieros (IEEE) 93
teoría instrumental 51, 53–4, 56, 58, 60,
62–3
Machine Translated by Google

Índice 211

bombas de insulina 40, 41, 43– aprendizaje federado 193; derechos


7 propiedad intelectual 5, 187, 192, 193, 194 personales 188–90, 193, 195–7; aprendizaje
inteligencia: clones y cyborgs 139; futuro de AI por refuerzo 57–8, 189, 195; robots y
88, 89, 90; humano contra máquina 87; límites sociedad 57–60; aprendizaje supervisado 57–
del lenguaje 7; inteligencia artificial 54–5, 85, 8, 195; véase también aprendizaje automático
87; persona derechos 6, 190 intencionalidad Lee, Peter 59 derechos legales 190, 191 Le Guin,
100, 101 Ursula K. 154 Leigh, J. 201 Leonard, A. 155
Lessig, Lawrence 192 Levinas, Emmanuel 64, 79,
Revista Internacional de Robótica Social 64 80 modelo de vida señuelos 142 El salvavidas
internet 154 Magic of Tidying Up (Kondo) 15 economía “like”
Internet de las cosas (IoT) 51, 76, 90 187 giro lingüístico 120 Lippmann, W. 204 Locke,
Interseccionalidad 42, 43 Infraestructuras John 190 lógica del cuidado 42 Lolita chatbot 166
íntimas 42 Intraacciones 121 Luka 5, 155, 156, 178 Lupton, D. 145 Luria, M.
Intravisualización 118, 123, 124–6, 133 75 , 76

IoT ver Internet de las cosas


iPhones 46, 47
Ishiguro, Hiroshi 70
Ishiguro, Kazuo 142
“Ivana” (chatbot) 56, 62

Jackson, SJ 41
Jain, S. Lochlain 42
James, William 35
Jeopardy game 86
Jibo 60–1, 76–9, 80 inteligencia artificial 54–5, 85, 87
John of Salisbury 152 aprendizaje automático: clones y cyborgs 139;
Johnson, Deborah 54, 62 ética de la duplicación de datos 145;
Jones, Steve 73 periodismo aumentación humana 203; ecologías humano-
8, 175, 178 bot 157; derechos personales 188, 191–4,
196, 197; robots y sociedad 57–8, 59, 60, 62
Kafer, A. 42 máquina pregunta 65 máquinas: inteligencia
Kahn, Peter 194 artificial 85, 86, 88, 91; aumentación humana 6,
Kai chatbot 73 203; agencia de máquinas 204; máquina
Kant, Immanuel 190–1 como mente 86; derechos personales 5–6;
Kelly, John F. 66n4 Kelly, robots y sociedad 3, 51–2; véase también
Kevin 27 Kenyon, R. 201 máquinas sociales @MagicGifsBot 74
Kera, D. 98 Kerr, Ian 196 @MagicRealismBot 73, 74, 81n1 Malignant (Jain)
Kik network 58 Kismet 71 42 marketing 20, 21, 154, 163 Maslany, Tatiana
conocimiento 8, 33 Kondo, 143 materialidad 40, 118, 120 material turn 120
Marie 15, 16 Koopman, The Matrix (películas) 143 Matthias, Andreas 59 –
Colin 35 Kuntz, A. 118, 60 Maturana, H. 169, 170 Mauldin, Michael 66n3
124 Práctica de Kuy 15 Mavridis, Nikolaos 69, 72, 80 Maxwell, James 153
McCorduck, P. 85 McGeveran, William 187, 193
McLuhan, Marshall 52, 154, 156, 166, 179, 180

mano de obra 45, 144, 148, 149, 191,


192 lenguaje 7–8, 19, 33, 55, 72, 120,
124–5, 173
Latour, Bruno 98, 99, 140
aprendizaje: inteligencia artificial 87, 139; robots
163; aprendizaje profundo 139, 188–90, 196–7;
Machine Translated by Google

212 índice

significado 1, 99, 133 Nature (revista) 176


carne en la historia 4, 118, 122–4, 133 cuerpo Neff, G. 26, 103
mediado 4, 109–15, 118–20, 134 yo médico Neisser, J. 124, 125
41, 43 tecnología médica 39–48, 141, 144, individualismo neoliberal 187–8, 197
201 Medtronic 43 , 45 meetup.com 27 Merrin, Netflix 97, 159, 188 visualización interna
W. 147 plataformas de mensajería 177 Messias, en red 4, 118, 122, 124–6, 133 dispositivos
J. 167 metáforas: inteligencia artificial 5, 86, 88; médicos en red 39–48 yo en red:
clones y cyborgs 137, 138, 140; nuevos métodos inteligencia artificial en la vida diaria 83–94;
materialistas 120, 124–5, 133; yo cuantificado clones y cyborgs 137–49; aumentación
31 microglia 175, 176–8 Microsoft 57–9, 166, humana 201–5; ecologías humano-bot
195, 203 mimesis 146 mimetismo 5, 19, 138, 152–80; sistemas de RV inmersivos 108–
141, 146–9, 194 “Mimicry and 15; dispositivos médicos 39–48; nuevos
Psycastenia” (Caillois) 146 mente: inteligencia métodos materialistas y el cuerpo 117–34;
artificial 85– 6, 89; descripción general 1–8; derechos personales
187–97; yo cuantificado 25–36; robots 10–22;
robots y sociedad 51–66; máquinas sociales
69–81; agencia simbiótica 97–104 células
gliales neuronales ver plasticidad neuronal
glia 189 computación neuromórfica 189
neuronas 169, 172–7, 178, 179, 189 neurociencia
aumentación humana 203–5; como máquina 190 Never Let Me Go (Ishiguro) 142 nuevos
85, 86 voces minoritarias 174, 175, 176 métodos materialistas: literatura
“Mirror, Mirror” (episodio de Star Trek ) 143
teléfonos móviles 83, 100–1 Mol, Annemarie
42 monetización 196 monitoreo 145 Mønsted,
B. 167 seguimiento del estado de ánimo 29–30
Moon ( película) 142 Moor, J. 89 derechos revisión 119–22; comer en la historia 122–
morales 190 Morozov, Evgeny 28, 31 Mowbray, 4; intravisión en red 124–6; resumen 117–19,
M. 57, 63 MUD (Multi-user Dungeons) sistemas 133–4; presentaciones y representaciones de
109 multiplicidad 143–4 Multiplicidad (película) sí mismo 4; leer imágenes en red
142 Munger, K. 177, 178 Musk , Elon 195, 197 horizontalmente 126–33
simbiosis mutualista 102, 103 mielina 175 Nueva York Times 27, 174
Nike Fuelband 32
Nike Pulso 145
Nishimura, Keiko 75
NLP ver procesamiento de lenguaje
natural sistemas VR (realidad virtual) no inmersivos
110, 111 desnudez 129, 131

objetos: apego a 13; objetos evocadores 78–9;


Internet de las Cosas 51, 76, 90; (re)
presentacionismo 121; robots 13, 15–17;
Naess, A. 179 agradecimiento 15–16; comprensión de las
Nafus, D. 26, 28 cosas 52–4 Oblivion (película) 142 Oculus 108,
Nagy, P. 103 109 oligodendrocitos 175–6 Ong, WJ 8 publicidad
Nakamura, L. 138 en línea 20–1 privacidad en línea 193 escritura en
narrativa 31, 123, 124 línea 124–5, 133 estado ontológico 53, 64 Proyecto
Naruto (serie manga) 142 OpenAI 195
Nass, Clifford 56, 63, 64
Consejo Nacional de Ciencia y Tecnología 139,
195 procesamiento del lenguaje natural (PNL)
55 derechos naturales 190, 191
Machine Translated by Google

Índice 213

OppenheimerFunds 10 presentacionalismo 118, 119–21, 122–4, 133,


oralidad 8 organizaciones 134 presentaciones de uno mismo 4, 111,
152 113–15 elección presidencial 56, 167 Presnell,
Orphan Black (serie de televisión) M. 118, 124 periódico La Presse 20 oralidad
143 alteridad 60–1, 79, 80 primaria 8 cultura impresa 8 privacidad 5,
187 , 193, 194 derecho privado del contrato
Packbots 64–5 192 Project Cybersyn 153 propaganda 167,
dolor 64 parásitos 172 derechos de propiedad 191, 192, 197
102, 103, 156, 169–72, 178, 179 simbiosis Prosthetic Head (Stelarc) 6 prótesis 7, 204
parasitaria 102 Paro (foca robot) 70 Asociación “Proteus Effect” 112 proximidad 79, 118, 120,
en IA 195 Pask, Gordon 153 Pasquale, F. 34, 122, 123, 124 agencia de poder 100–1, 104
139 Pateman, Carole 192 percepción 113 , 115, PSI ver ilusión de plausibilidad
204 desempeño 111, 113, 115, 120 personalidad
103, 160 personalización 21, 188 derechos de
persona 187–97; derechos individuales versus
derechos colectivos 196–7; descripción general
5, 187–8; derechos personales en AI 192–4;
presunción posthumana de AI 188-90; regular
AI 194–6; derechos y comercio 190–1 persona
191 robots persuasivos 16–19, 20, 21, 22
Peterson, Andrea 56 mascotas 11, 12, 14, QS véase Yo cuantificado comunidad yo
16, 22, 61 phicons 75–6 fotoblogging 119 cuantificado 25–36; definición 28–9; discutir
fotografías 119, 121, 126–33, 134 PI véase los datos 30–2; yo médico en red 43;
Place Illusion Pieraccini, Roberto 77 Pinchevski, resumen 25–6;
Amit 80 lugar 4, 113 Place Illusion (PI) 113 Comunidad del yo cuantificado 26–8;
Plausibility Illusion (PSI) 113 Policratus (John of ver la señal 28–30; yoes en el bucle 34–5;
Salisbury) 152 robots políticos 152, 167–8, 171–2, yo de la serie temporal 32–4
175, 178–9 positivismo 120 posthumanismo: Autobiografía cuantitativa 31, 35
metáforas de IA 5; clones y cyborgs 148; ecologías
humano-bot 5; yo médico en red 2, 39, 41, 42, 44,
47, 48; nuevos métodos materialistas 120; La cuestión de la tecnología
derechos personales 188–90, 191, 194, 197 (Heidegger) 53
cuestión de cosas 52

racismo 57–9, 112, 177


Rank, O. 142 racionalidad
139, 140 lectura de
imágenes horizontalmente 4, 118, 122, 126–33
listo para usar (Zuhandenheit) 53, 61 “The
Rebel Flesh” ( episodio de Doctor Who ) 142
sistemas de recomendación 188 Reddit 177
Reeves, Byron 56, 63, 64 recomposición reflexiva
35 regulación 194–6 rehabilitación 201 aprendizaje
por refuerzo 57–8, 189, 195 artefactos relacionales
78, 79 enfoque materialista relacional 126, 127 giro
relacional 63–6 Replika ( bot) 155, 156–62, 163–5,
178 representacionalismo 118, 119–21, 122–4,
subjetividad posthumana 39, 44, 47 133, 134
giro postcualitativo 120 poder 26, 134,
160, 163
“Preparándonos para el futuro de la tecnología artificial
Informe de inteligencia 195
presencia 111, 113, 114, 115
presente a la mano (Vorhandenheit) 62
Machine Translated by Google

214 índice

representaciones de uno mismo 4, aumentatica 203, 205; ecologías humano-


112 conjuntos de investigación 118, 119–20, 121, 126 bot 5, 152–6, 163–8; sistemas de RV inmersivos
ética de la investigación 4–5, 134 responsabilidad 59, 60, 108–15; derechos personales 197; yo cuantificado
62, 63, 180 derecho de publicidad 193 derechos: derechos 26, 32–5; (re) presentacionalismo 4, 119, 120,
humanos 187, 188, 190–2; 134; yo como información viva 152–6; yoes en el
bucle 34–5; sentido de 4, 69–70, 113–15;
derechos individuales versus derechos colectivos tecnologías del yo 26; tecnología y ser humano 1–
196–7; derechos de la persona 5–6, 187–97 2; autoría de series temporales 32–4 autoría propia
RightsCon 187 visión ritual de la comunicación 42 165, 173, 180 autos autónomos 162, 163
perros robot 2, 10–15, 16, 22 robots 10–22; diseño individualidad 5, 34, 179, 180 selfies 117, 119, 123,

antropomórfico 15–16; entre bot y hard place 61–6; 127 autonarrativas 30, 31 propiedad de uno mismo 192
definir robots y bots como sociales 70–1, 73; diálogo presentación 4, 111, 113–15 autorreflexión 100, 102
humano-robot 6, 72; imitando la confiabilidad 19; autorregulación 100, 102 autorrepresentación 4, 112
otro tipo de cosas 54–61; resumen 2–3, 10–11, 51– autoseguimiento: definición 28; ética de la duplicación
2; robots persuasivos 16–19; turno relacional 63–6; de datos 145; seguimiento del estado de ánimo 29–30;
activistas de robots 20-1; perros robot 11-15; robots autocuantificación y seguimiento 2, 26, 30–2;
y sociedad 51–66; retroalimentación social 21; Comunidad del yo cuantificado 26–8; yoes en el bucle
máquinas sociales 70–1, 73, 79; agencia simbiótica 34–5; yo de serie temporal 32–4 Sensebridge 36n4
104; cosas que son más que cosas 60–1; cosas que Sensei 194 sentido del lugar 4 sentido del yo 4, 69–70,
piensan por sí mismas 57–60; pensando en quien? 113–15 sentidos 110 sensibilidad 1–2, 5, 7, 12–13, 16,
21–2; comprensión de las cosas 52–4 Rod, J. 98 149 acoso sexual 166 Sherman, J. 28 práctica sintoísta
Romney, Mitt 167 Rousseau, Jean-Jacques 179 15, 22 Simmel, Marianne 103 Singer, Peter W. 64,
Rowling, JK 21 65 Sinnreich, A. 138, 145 Siri 83, 92, 93, 97, 139,
194 Slack 177 Slater, M. 113 casa inteligente 75, 77
teléfonos inteligentes 101, 204 Smith, GJD 34 SNS
ver sitios de redes sociales robots sociales 61, 71

bots sociales 21, 56, 71–4, 78, 80 teoría cognitiva social


4, 98, 100 constructivismo social 65, 104 glía social 5,

170 , 172–8, 179, 180 cuerpo socialmente mediado 4,


109–15, 118–20,

Samuel, Arthur 57 Sapp,


J. 101 Sarah (robot
social) 72–3 Savage, S. 174
esquizofrenia 146–7, 148
Schwartz, H. 143, 144 estudios
de ciencia y tecnología (STS) 43,
98, 99 ciencia ficción: inteligencia artificial 86;

clones y cyborgs 137–8, 139, 141–4, 147–9;


ecologías humano-bot 159, 163; apocalipsis robot
51
Scott, Robert 65
guiones 57, 156
oralidad secundaria 8
“Segundas Oportunidades” (Star Trek: La Siguiente
Episodio de generación ) 143
Segunda vida 109, 110
Segundo tratado sobre el gobierno civil
(Locke) 190
Sedol, Lee 58 134

auto: inteligencia artificial 83–6, 88–92, 94; diseño máquinas sociales 69–81; chatbots y
de sí mismos 163–8; humano bots de Twitter como alteridades sociales 73–5;
Machine Translated by Google

Índice 215

definir robots y bots como sociales 70–3; resumen de 103–4; descripción general 4, 97–
3, 69–70, 80–1; repensar los robots sociales como 8; perspectiva sociocognitiva 100–1 sinapsis
alteridades 75–8; yo como información viva 152; 176, 177, 189, 190
teorizando la alteridad 78–80 redes sociales:
inteligencia artificial 85; clones y cyborgs 147; Taguchi, Hillevi Lenz 119, 126–7, 133 hablan de
chatbot ELIZA 56; ética de la duplicación de datos 145; IA 86, 89 Tamagotchi llavero mascota 14 publicidad
aumentación humana 204–5; ecologías humano- dirigida 20 Tay bot 57–9, 62, 63, 166, 179, 203
bot 154, 165, 167, 171, 172, 175; cuerpos mediados techne 7 tecnologías de poder 26 tecnologías de
117, 121, 122; derechos personales 192, 193; la uno mismo 26 tecnología: agencia en las
agencia simbiótica 104 interacciones humano-tecnología 99–100;
inteligencia artificial 89, 92–4; y ser humano 1, 6;
clones y cyborgs 139; aumentación humana 6, 7,
201–5; ecologías humano-bot 154, 166, 179; teoría
redes sociales 72, 81, 165, 167, 175, 176, instrumental 53–4; dispositivos médicos en red 40,
179 43, 47; resumen 3–4, 6–8; derechos personales
sitios de redes sociales (SNS) 69, 71–4, 180 robots 195, 196; yo cuantificado 26; lectura de imágenes
sociales 15–17, 19, 21, 61–2, 71–3, 75–8, 80 estado en red horizontalmente 126; agencia simbiótica 101,
social de las cosas 64, 65 VR social (realidad 102, 103–4; entendimiento de las cosas 54 Acuerdos
virtual) 109 @softlandscapesbot 74, 81n3 de Términos de Servicio 192 Thaler, R. 204
Theobald, R. 85 terapia 165 cosas: antropomorfismo
15; apego a 13; instrumentalismo 62, 63; Internet de
Sony 11, 12, 16, 20, 70, 109 las Cosas 51, 76, 90; pregunta de 52; estatus social
Sound Spark 36n4 audio de 64–5; objetos de agradecimiento 15–16; cosas
espacializado 110, 111, 113, 114 que son más que cosas 60–1; cosas que hablan 54–
Hablar (Hall) 195 7; cosas que piensan por sí mismas 57–60; comprensión
Spencer, Herbert 152 de las cosas 52–4 pensamiento 6, 16, 21–2, 57–60, 139,
Proyecto SpiderSense 201, 202 204 máquinas pensantes 86, 191 análisis de series de
Viaje a las estrellas (serie de televisión) 143 tiempo 33 Time Wars 142–3 Tinder 171 @tinycarebot
Star Trek: La próxima generación (serie de televisión) 74, 81n2 ser-herramienta 53 agravio de asignación 193
143 ToyBox 108 seguimiento: definición 28; discutiendo
Star Wars Episodio I: La amenaza fantasma el
(película) 142
Star Wars Episodio II: El ataque de los clones
(película) 142 Estado de las cosas 64, 65

@StayWokeBot 174
Estelarco 6
Pasos hacia una ecología de la mente (Bateson)
153
narración 8, 133 STS
ver ciencia y tecnología estudios subjetividad 8
Suchman, Lucy 3, 6 Sunstein, C. 204
superinteligencia 89 aprendizaje supervisado 57–
8, 195 vigilancia 20, 21, 26, 145, 191–3 vigilancia
capitalismo 191, 192 , 193 Swan, Melanie 34–5
simbiosis 98, 100, 101, 102 agencia simbiótica 97–
104; agencia en datos 30–2; ética de la duplicación de datos 145;
salud 202; sistemas VR inmersivos 109, 111;
seguimiento del estado de ánimo 29–30; resumen
25–6; yo cuantificado y seguimiento
25–36; Comunidad del yo cuantificado 26–8;
interacciones humano-tecnología 99–100; como activistas de robots 21; ver la señal 28–30; yoes en
concepto 101–2; definición 102; diferentes formas de el bucle 34–5; yo de la serie temporal 32–4
102–3; trascendencia
Machine Translated by Google

216 índice

Interacción Social Transformada (TSI) 112 realidad virtual (VR) 108–15 virus
transhumanismo 201 transparencia 148, 173, 176, 156, 169, 170 agentes sociales
178, 188, 195, vocales (VSA) 83, 84, 93, 94n1
196 Vorhandenheit (presente a la mano) 62
personas trans 122, 132 VR ver realidad virtual
Trump, Donald 172, 193 Los VSA ven agentes sociales vocales
confianza 19, 20, 56, 72, 165, 173 Robot social Vyo 75–6, 77, 78, 80
TSI ver Interacción Social Transformada
Tumblr 117 Esperando a Godot (Beckett) 156
Turing, Alan 54–5, 85, 87 Wallace, David Foster 165 Watson
Prueba de Turing 55, 73, 85, 138, 139, 190 (IBM) 89 Watson, Sarah 30, 35
Turkle, Jerez 14, 15, 16, 78, 85 tecnología portátil 7, 202, 204
gemelos 5, 34, 137, 139, 141–4, 149n1, 149n2, publicidad web 20–1 Proyecto de
149n3 ecología web 167, 178 Weizenbaum,
Twitter: ecologías humano-bot 166, 167, 174, Joseph 13–14, 15, 16, 55–6, 57
177; robots y sociedad 57, 58; máquinas bienestar 118 Wiener, Norbert 51–2, 65,
sociales 3, 73–5, 78, 80 153, 154 Wikipedia 177–8 Winner,
Langdon 140, 190 Winston, PH 90 Revista
DUDH ver Declaración Universal de Wired 27, 57, 59 Tecnología del “Mago de
Misterios de los Oz” 62, 66n4 Woebot 165 Wolf, Gary 25,
derechos humanos 12, 103, 140, 144, 147 27, 28, 33 World of Warcraft 109 escritura
“Efecto Valle Inquietante” 12, 103 8, 123, 124–5, 133, 176
incertidumbre 32, 33, 35
Naciones Unidas 190
declaración Universal de los Derechos Humanos
(DUDH) 190, 191
respaldo del usuario 193
elecciones presidenciales de EE. UU. 56, 167

van Camp, Jeffrey 77 YouTube 117, 122, 123, 133


van den Eede, Y. 36n7
Varela, F. 169, 170 VE Zimmerman, Michael 53 Žižek,
ver entornos virtuales veteranos Slavoj 65 zoomorfismo 15
165 entornos virtuales (VE) 110
Zuhandenheit (listo para usar) 53, 61

También podría gustarte