Está en la página 1de 7

CARPET

A DE

RECCOMUN
UPEICACIÓN

RAC COMPETENCIA PRODUCTO

IÓN
LEE DIVERSOS TIPO DE TEXTO 2 MAPAS CONCEPTUALES
ESCRIBE DIVERSOS TIPO DE TEXTO TEXTO ARGUMENTATIVO, AFICHE
SE EXPRESA ORALMENTE VIDEO EXPOSITIVO

LA
CARPETA
SÓLO ES
VÁLIDA SI
TEXTO 1

MAXINE Y EL FUTURO DE LAS VIDEOCONFERENCIAS

Hace años un amigo me dijo "no me fío de la gente que no me mira a los ojos cuando hablo". Con las
videoconferencias este chico tendría un problema, porque nadie mira a los ojos, o, más bien, a la webcam: siempre
parece que estamos mirando a otro lado porque, efectivamente, miramos a la pantalla.

Ahora la plataforma NVIDIA Maxine tiene solución para ello: propone mejoras en el ámbito de las videoconferencias,
pero nosotros hemos podido probar una especialmente llamativa: la llamada 'eye contact' que permite que aunque
estés mirando a otra parte, tus ojos parezcan estar siempre mirando directamente a la webcam, una opción que
lleva algún tiempo disponible en FaceTime en iOS. Es como si mirases a tu interlocutor, y la característica funciona,
desde luego.

La comunicación es así algo más irreal e indirecta, pero NVIDIA Maxine plantea el uso de la inteligencia artificial para
arreglarlo. La compañía lleva tiempo sorprendiéndonos con diversos experimentos que nos pintan fotos mientras
hablamos o que generan caras imposibles de distinguir de las reales.

Pudimos disfrutar de una demo exclusiva de la tecnología: para ello usamos una pequeña aplicación interna
ejecutada en un portátil con una webcam integrada —se puede utilizar una webcam externa sin problemas—.La
aplicación muestra una pantalla dividida que en el lado izquierdo registra en todo momento nuestra cara, cómo la
movemos y, sobre todo, donde miramos. A partir de ahí la inteligencia artificial hace el trabajo de "crear" por
realidad aumentada unos ojos que siempre miran a la cámara.

El efecto es sorprendente. No es perfecto, desde luego, y en ocasiones parece claro que los ojos no acaban de
encajar en la imagen de forma precisa, pero en muchos momentos el resultado es convincente.

La tecnología de NVIDIA es capaz de emular pestañeos y de "recolocar" los ojos y la mirada cuando vamos mirando a
otras zonas e incluso cuando giramos un poco la cara. Los ojos no acaban de ser del todo "reales" y el efecto de la
generación por ordenador es apreciable, pero sí consiguen el efecto buscado.

En una de nuestras pruebas forzamos un poco la máquina y de hecho miramos fuera de la pantalla para ver cómo se
comportaba el sistema, que la mayoría del tiempo se adaptaba sin problemas aunque en algún momento podía
haber algún pequeño conflicto.

El funcionamiento general era no osbtante bueno, sobre todo porque en una videoconferencia lo que hacemos
constantemente es mirar a la pantalla, no a la webcam.

Si hacíamos eso en nuestras pruebas, nuestros ojos no aparecían mirando un poco hacia arriba o hacia abajo (que es
lo que ocurriría en un escenario sin esta tecnología), sino que aparecían mirando siempre al frente, como si
miráramos directamente a los ojos de nuestro interlocutor.

Pudimos probar además una de las pequeñas aplicaciones que se usan de forma conjunta con este desarrollo y que
permitía crear la malla de nuestra cara, creando una máscara en la parte derecha que imitaba los gestos y
movimientos de nuestra cara.

El seguimiento era también notable, y desde luego demostraba que este tipo de tecnología puede ayudar a hacer
que las videoconferencias que cada vez están más presentes en nuestra vida sean más "inmersivas".

HAZ UN COMPLETO MAPA CONCEPTUAL DEL TEXTO 1


TEXTO 2

LAS MÁQUINAS TOMAN EL CONTROL DE LOS RECURSOS HUMANOS

Imagine que se postula como candidato a una oferta laboral y el encargado de evaluar si usted merece o no el
puesto de trabajo es un algoritmo. No se trata de un augurio futurista, sino de una realidad incipiente que amenaza
con desatar una auténtica revolución en los recursos humanos.

La inteligencia artificial empieza a tomar los mandos de procesos antes reservados a los equipos de carne y hueso,
como la selección del personal. «Estamos en un camino de crecimiento y cada vez se utiliza más. Todos los
pronósticos hablan de que se reducirán los empleados intermedios porque serán sustituidos por algoritmos que
recogerán la información y tomarán las decisiones», señala Adrián Todolí, profesor de Derecho del Trabajo en la
Universidad de Valencia.

Vestidas de objetividad, las máquinas ganan terreno en el reclutamiento de nuevos perfiles. «Lo que ha pasado
muchas veces es que estos algoritmos no habían sido entrenados adecuadamente y no se había hecho una revisión
de los datos», comenta Idoia Salazar, presidenta de OdiseIA y profesora en la Universidad CEU San Pablo. Es decir, su
uso no está exento de riesgos.

«Los algoritmos normalmente descubren a través de la inferencia estadística cosas aunque no se las hayamos dicho.
Por ejemplo, a partir de las publicaciones que nos gustan en redes sociales, pueden saber la orientación política o
sexual y utilizarlo como criterio para no contratar», explica Todolí.

La discriminación también puede producirse porque estas fórmulas matemáticas aprenden de la realidad, que es
sesgada. «Si queremos que elija a alguien para un puesto de dirección de un consejo de administración del Ibex-35,
la mayoría de consejeros son hombres y el algoritmo aprenderá que es a quien tiene que contratar». En la ciencia
estadística, cuantos más datos haya, más fiable es el resultado, motivo por el que también pueden aparecer sesgos.
«Si el algoritmo tiene pocos datos de mujeres o de inmigrantes porque históricamente son minoría, los descarta».
Para evitar estas situaciones, el profesor aconseja que las empresas programen un algoritmo que descubra la razón
por la que la IA contrata o no a una persona y determine si ha sido una decisión discriminatoria.

La propuesta de reglamento de la Comisión Europea sobre IA establece que, empleada para la clasificación de
currículums, esta tecnología es de alto riesgo y debe someterse a una serie de obligaciones antes de comercializarse.
Sin embargo, en opinión de Todolí, el problema es que «no contempla la creación de una agencia pública que
controle si el riesgo se ha minimizado, sino que permite que sea la propia empresa la que haga una autoevaluación».

Papel en los despidos

Además de aplicarse a las contrataciones, estas fórmulas pueden vigilar el desempeño diario del trabajador. «Se
controla cuántas teclas ha utilizado, cuántos correos electrónicos ha contestado, etc. Son datos en bruto que la
empresa recoge de forma automática a través de aplicaciones y el algoritmo los procesa para hacer un ranking de
productividad», explica el profesor.

Por ello, comienzan a ser responsables de despidos. Como casos recientes, destacan los de la aerolínea lusa TAP y la
tecnológica rusa Xsolla, que mostraron la puerta de salida a parte de su plantilla tomando como base las indicaciones
de un algoritmo. Todolí recuerda que, en España, el límite son los derechos fundamentales de los trabajadores y el
Reglamento General de Protección de Datos. «Se debe informar a los trabajadores de que se está usando un
algoritmo para hacerles un perfil o meterles en un ranking y explicar la lógica interna del algoritmo. El trabajador
tiene derecho a que la decisión final la tome una persona, es decir, que no sea el algoritmo el que envíe la carta de
despido rellenada de forma automatizada», explica.

HAZ UN COMPLETO MAPA CONCEPTUAL DEL TEXTO 2


REDACTA UN TEXTO ARGUMENTATIVO DE 15 LÍNEAS, RESPECTO A TU OPINIÓN SOBRE USO DE TECNOLOGÍAS QUE
REEMPLACEN AL SER HUMANO
RECUERDA QUE LA ESTRUCTURA DE UN TEXTO ARGUMENTATIVO CONSTA DE TESIS, SUSTENTO Y EJEMPLO
ELABORA UN AFICHE RELACIONADO AL TEXTO 1 O 2

EDITA UN VIDEO DE 120 SEGUNDOS, EXPRESANDO TU OPINIÓN SOBRE USO DE TECNOLOGÍAS QUE REEMPLACEN
AL SER HUMANO

También podría gustarte