Está en la página 1de 12

Descubren un extraño planeta con tres soles

Con hasta tres atardeceres diarios y un año equivalente a 550 años terrestres, es también el planeta más frío
hallado hasta ahora del que se obtienen imágenes directas.

Por Investigación y Ciencia el 12 de julio de 2016

Un equipo internacional de astrónomos ha conseguido “fotografiar” un insólito mundo: un supergigante gaseoso cuatro
veces más masivo que Júpiter y que orbita en torno a la estrella más luminosa de un sistema estelar triple. Los hipotéticos
—y, con toda probabilidad, inexistentes— habitantes de dicho planeta verían por tanto tres soles que, en ciertas
estaciones del año, llegarían a salir y a ponerse otras tantas veces al día. En otras épocas, en cambio, siempre habría
algún sol brillando en el cielo, por lo que el planeta experimentaría una situación de día constante. Los resultados fueron
publicados el viernes en la edición en línea de la revista Science.
El nuevo mundo, situado a 320 años luz de distancia y bautizado como HD 131399Ab, no es el primer planeta
descubierto en un sistema estelar triple. Sin embargo, sí presenta varias características que lo convierten en un caso
excepcional con respecto a los casos previos conocidos. En primer lugar, su órbita es extraordinariamente amplia: HD
131399Ab se encuentra a más de 80 unidades astronómicas (UA) de la estrella principal del sistema triple; es decir, dos
veces más lejos de su astro madre que Plutón del Sol (1 UA equivale a la distancia Tierra-Sol). Sin embargo, y a pesar
de esa enorme separación, no se trata en absoluto de un mundo helado. Su estrella anfitriona es mucho más masiva que
el Sol, por lo que en la superficie del planeta se alcanzan temperaturas de casi 600 grados Celsius, mayores que las que
sufren Venus o Mercurio.
Ha sido precisamente esa característica la que ha permitido detectar el planeta por medio de una técnica relativamente
inusual: la toma de imágenes directas. Este método se basa en captar la emisión térmica del planeta, lo que equivale a
“verlo” en el infrarrojo. La gran mayoría de los exoplanetas descubiertos hasta ahora no han sido localizados de este
modo, sino por los efectos que provocan en la estrella en torno a la cual orbitan (bien porque al pasar por delante de ella
amortiguan ligeramente su luz, o bien por las pequeñas oscilaciones que el tirón gravitatorio del planeta causa en la
estrella anfitriona). En particular, se trata del planeta más frío —a pesar de sus casi 600 grados— hallado hasta ahora
por el método de toma directa de imágenes. El descubrimiento ha sido posible gracias al espectrógrafo SPHERE,
instalado en el telescopio VLT del Observatorio Europeo Austral (ESO), en Chile.
El hallazgo reviste también importancia por otro motivo. En principio, cabe esperar que un planeta situado en un sistema
estelar múltiple tenga una órbita inestable, ya que el influjo gravitatorio de varias estrellas cercanas resulta por lo general
en una dinámica caótica, y lo más probable es que cualquier cuerpo acabe siendo expulsado muy pronto del sistema,
por lo que esta clase de hallazgos se consideran muy improbables. De hecho, el nuevo mundo es uno de los exoplanetas
más jóvenes conocidos hasta la fecha: posee una edad estimada de 16 millones de años, un suspiro en términos
astronómicos.
En su artículo los autores aventuran tres posibles escenarios de formación: que el planeta se originase cerca de la estrella
principal del sistema triple y que luego fuese eyectado hasta su órbita actual, más amplia; que naciese como un planeta
circumbinario en torno a las otras dos estrellas del sistema (muy cercanas entre sí) y que fuese después desplazado hacia
el astro principal; o que se gestase cerca de la estrella principal o del par menor, pero antes de que los tres astros se
uniesen entre sí para dar lugar al sistema triple. Sea como sea, un curioso mundo que añadir a la cada vez más extensa
lista de exoplanetas conocidos.
¿Por qué?
_______________________________________________________________________________________________
_______________________________________________________________________________________________
_______________________________________________________________________________________________
_______________________________________________________________________________________________
Astrónomos hallan más de 1.000 nuevos planetas
El anuncio de 1.284 mundos por parte de la misión Kepler vaticina los abrumadores descubrimientos
planetarios por venir.

Por Lee Billings el 13 de mayo de 2016

Astrónomos usando el telescopio espacial Kepler de la NASA anunciaron que la nave espacial de búsqueda de
planetas había aumentado su catálogo con 1.284 mundos adicionales. Este es el mayor número de planetas jamás
anunciado al mismo tiempo, hinchando el recuento planetario de Kepler a más de 2.000 y el indiscutible número
de planetas conocidos fuera de nuestro sistema solar a más de 3.000. Un artículo que resume los hallazgos ha
aparecido en la revista The Astrophysical Journal.

Al igual que casi todos los mundos de Kepler, los últimos descubrimientos proceden de una sola porción del cielo
llena de estrellas en las constelaciones de Lyra y Cygnus. Ahí es donde la nave espacial comenzó a mirar tras su
lanzamiento en 2009, en busca de disminuciones en la luz de 150.000 estrellas que indicasen que había planetas
revoloteando frente a ellas. Kepler dejó de monitorear esa región en particular del cielo en 2013, después de que
un mal funcionamiento del hardware obligara a sus operadores a cambiar la estrategia de observación. Ahora
busca planetas alrededor de un menor número de estrellas en una estrecha banda de cielo alrededor del Sol en
una nueva fase de la misión, conocida como "K2".

Científicos de la misión han sabido durante mucho tiempo que parte de las disminuciones en la luz de las estrellas
que Kepler vio durante su misión principal eran debidas a impostores –dobles estrellas, estrellas variables y otros
fenómenos astrofísicos que pueden hacerse pasar por los oscuros pasos de planetas–. Para reducir los resultados
a planetas reales, el equipo de Kepler se basó en observaciones meticulosas que requieren mucho tiempo de otros
telescopios en tierra y en el espacio. Sin embargo, a medida que los planetas candidatos se amontonaban, este
proceso de autenticación se convirtió en un cuello de botella, demasiado lento e ineficiente como para mantenerse
al día con el flujo de datos de Kepler. El reciente anuncio vino de un enfoque nuevo, más automatizado y
estadístico para la validación de los candidatos de Kepler liderado por Tim Morton, astrónomo de la Universidad
de Princeton. "Los planetas candidatos pueden ser considerados como migas de pan", explicó Morton en una
conferencia de prensa. "Si deja caer algunas migajas grandes al suelo, puede recogerlas de una en una. Pero, si
se derrama una bolsa entera de pequeñas migajas, va a necesitar una escoba. Este análisis estadístico es nuestra
escoba".

La técnica analiza las formas es que cada posible planeta hace disminuir la luz de las estrellas y, basado en parte
en la frecuencia estimada de diversos impostores astrofísicos, calcula la probabilidad de que un planeta real
produzca esa disminución. Con base en este análisis, cada uno de los 1.284 mundos anunciados ayer tiene más
de un 99 por ciento de probabilidades de ser un planeta real, y 1.327 candidatos adicionales de Kepler son planetas
probables que no pudieron superar el nivel de confianza del 99 por ciento. El análisis también desestimó 707
candidatos como posibles falsos positivos.

Unos 550 de los 1.284 mundos anunciados recientemente podrían ser rocosos, en función de su tamaño estimado.
Y de estos, nueve orbitan dentro de la zona habitable, de sus estrellas –la región no muy fría ni muy caliente,
donde el agua es líquida y la vida, tal y como la conocemos, podría existir–. Esto lleva el recuento total de mundos
potencialmente habitables de Kepler a unas dos docenas. Según Natalie Batalha, científica de la misión de Kepler,
extrapolar esto a la totalidad de la galaxia sugiere que podría haber 10.000 millones de planetas de
aproximadamente el tamaño de la Tierra en las zonas habitables de las estrellas a lo largo de la Vía Láctea. El
más cercano, dijo Batalha, podría estar a tan solo 11 años luz de distancia, –prácticamente a la vuelta de la
esquina, en términos interestelares–.

Reveladoramente, estas estimaciones son apenas diferentes de las producidas anteriormente en la misión Kepler
a partir de tamaños de muestra más pequeños y análisis parciales de los datos. Los astrónomos, al parecer, están
al fin cada vez más cerca de conocer la verdadera frecuencia de ocurrencia de planetas potencialmente habitables
en todo el cosmos. Sin embargo, las preguntas más interesantes y posiblemente más significativas se mantienen
fuera del alcance: ¿cuántos de nuestros planetas vecinos potencialmente habitables son realmente habitables, y
cuántos de ellos están en realidad habitados? No se sabe todavía.

Encontrar respuesta a estas preguntas será una tarea clave para el futuro de la astronomía. Tanto el telescopio
espacial James Webb de la NASA, que será lanzado en 2018, como el telescopio de Sondeo Infrarrojo de Campo
Amplio (WFIRST, por sus siglas en inglés) con un lanzamiento previsto para la década de 2020, tienen escasas
pero significativas posibilidades de sondear en busca de signos de habitabilidad y de vida las atmósferas de un
par de pequeños planetas cercanos. Además, una nueva clase de telescopios de 30 metros basados en tierra
programados para debutar en la década de 2020 podrían llevar a cabo observaciones similares. Más allá de eso,
los astrónomos sueñan con construir y lanzar uno o más telescopios espaciales gigantes de próxima generación
hechos a medida para tomar instantáneas de Tierras exóticas, aunque tales observatorios no parece que vayan a
volar hasta la década de 2030 como muy pronto.

Mientras tanto, lo más notable de la oleada de descubrimientos planetarios en curso de Kepler y otras misiones
es que no muestra signos de desaceleración. Hace una década el anuncio de incluso una docena de planetas a la
vez se consideraba sensacional; ahora la barra se ha elevado, y el anuncio de cientos o miles a la vez, no garantiza
que sea noticia de primera página. Ni siquiera los expertos pueden mantenerse al día con todos los planetas que
ahora llenan los catálogos.

Pronto el campo en expansión que es la caza de planetas será aún más abrumador. El catálogo definitivo de Kepler
está programado para aparecer a finales de 2017, que potencialmente podría añadir cientos o miles de mundos
confirmados más a la cuenta. Mientras tantas mediciones de todo el cielo automatizadas y basadas en tierra están
aumentando y podrían ofrecer números de planetas similares a los de Kepler. Pero la inundación real de
descubrimientos probablemente vendrá de los telescopios espaciales. Se proyecta que WFIRST encuentre unos
pocos miles de planetas en un mapeo del bulbo galáctico de la Vía Láctea rico en estrellas, y el Satélite de Sondeo
de Exoplanetas en Tránsito de la NASA, que será lanzado en 2017, llevará a cabo un estudio de las estrellas
cercanas en todo el cielo que se proyecta detectará por lo menos 1.500 planetas. Incluso números aún más grandes
podrían provenir de otros proyectos: tanto la nave espacial Gaia de la Agencia Espacial Europea, así como la
misión PLATO (Tránsitos planetarios y Oscilaciones de estrellas), una especie de Kepler de gran tamaño
preparado para despegar en el año 2024, tienen probabilidades de encontrar decenas de miles más cada uno.

Tal vez dentro de 10 años –y desde luego en 20– emocionarse por mil nuevos planetas probablemente parecerá
algo pintoresco.

¿Por qué?
_________________________________________________________________________________________
_________________________________________________________________________________________
_________________________________________________________________________________________
_________________________________________________________________________________________
Las computadoras cuánticas están listas para salir del
laboratorio en 2017
Google, Microsoft y una gran cantidad de laboratorios y start-ups están compitiendo para convertir estas
curiosidades científicas en máquinas que funcionan.

Por Davide Castelvecchi, Revista Nature el 5 de enero de 2017

Durante mucho tiempo la computación cuántica ha parecido como una de esas tecnologías que están a 20 años
de distancia, y que siempre lo estarán. Pero 2017 podría ser el año en que este campo se desprenda de la imagen
de que son únicamente un área investigación.

Los gigantes informáticos Google y Microsoft contrataron recientemente una gran cantidad de luminarias y se
han fijado metas desafiantes para este año. Su ambición refleja una transición más amplia que tiene lugar tanto
en los start-ups (empresas emergentes) como en los laboratorios de investigación académica: ir de la ciencia pura
a la ingeniería. “La gente realmente está construyendo cosas”, dice Christopher Monroe, físico de la Universidad
de Maryland, en College Park, quien cofundó el start-up IonQ en 2015. “Nunca he visto nada de eso. Ya no es
solo investigación”.

En 2014, Google comenzó a trabajar en una forma de computación cuántica que aprovecha la superconductividad.
La compañía espera que este año, o un poco después, esa tecnología realice cómputo que está más allá de las
supercomputadoras “clásicas” más poderosas —un escurridizo hito conocido como supremacía cuántica–. Su
rival, Microsoft, está apostando por un concepto intrigante pero no probado, la computación cuántica topológica,
y espera realizar una primera demostración de la tecnología.

El panorama de la computación cuántica en los start-ups también se está calentando. Monroe planea comenzar a
contratar formalmente este año. El físico Robert Schoelkopf, de la Universidad de Yale, en New Haven,
Connecticut, quien cofundó el start-up Quantum Circuits, y Chad Rigetti, un físico aplicado que en el pasado
trabajó para IBM y quien creó Rigetti en Berkeley, California, dicen que pronto alcanzarán importantes hitos
técnicos.

Los laboratorios académicos están en un punto similar. “Hemos demostrado todos los componentes y todas las
funciones que necesitamos”, dice Schoelkopf, quien continúa dirigiendo un grupo que compite por construir una
computadora cuántica en Yale. Aunque todavía se necesitan muchos experimentos en el campo de la física para
lograr que los componentes funcionen juntos, los principales retos ahora están en ingeniería, dijeron él y otros
investigadores. La computadora cuántica con la mayor cantidad de qubits hasta ahora – 20– está siendo probada
en un laboratorio académico dirigido por Rainer Blatt en la Universidad de Innsbruck, en Austria.

Mientras que las computadoras clásicas codifican la información como bits que pueden estar en uno de dos
estados, 0 ó 1, los ‘qubits’ que componen las computadoras cuánticas pueden estar en ‘superposiciones’ de ambos
a la vez. Esto, junto con la habilidad de los qubits para compartir un estado cuántico llamado entrelazamiento,
debería permitir a los ordenadores realizar esencialmente muchos cálculos a la vez. Y el número de tales cálculos
debería, en principio, duplicar por cada qubit adicional, dando lugar a una aceleración exponencial.

Esta rapidez debería permitir a las computadoras cuánticas realizar determinadas tareas, como buscar bases de
datos grandes o factorizar grandes cantidades de números, lo que sería inviable para las computadoras más lentas
y clásicas. Las máquinas también podrían ser transformadoras al usarse como una herramienta de investigación,
realizando simulaciones cuánticas que permitirían a los químicos entender las reacciones con un nivel de detalle
sin precedentes, o a los físicos diseñar materiales que sean superconductivos a temperatura ambiente.

Hay muchas propuestas competitivas sobre cómo construir qubits, pero hay dos favoritos, confirmados en su
capacidad de almacenar información durante tiempos cada vez más largos –a pesar de la vulnerabilidad de los
estados cuánticos a perturbaciones externas– y para realizar operaciones de lógica cuántica. Un enfoque en el que
Schoelkopf ayudó y fue pionero, y que Google, IBM, Rigetti y Quantum Circuits han adoptado, implica la
codificación de estados cuánticos como corrientes oscilantes en ciclos superconductores. El otro, buscado por
IonQ y varios laboratorios académicos importantes, es codificar qubits en los iones individuales sostenidos por
los campos eléctricos y magnéticos en trampas de vacío.

John Martinis, que trabajó en la Universidad de California en Santa Bárbara, hasta que Google lo contrató a él ya
su grupo de investigación en 2014, dice que la madurez de la tecnología superconductora ha llevado a su equipo
a establecer el audaz objetivo de la supremacía cuántica.

El equipo planea lograr esto usando un 'caótico' algoritmo cuántico que produce algo parecido a una salida
aleatoria (S. Boixo et al., Preprint en https://arxiv.org/abs/1608.00263; 2016). Si el algoritmo se ejecuta en un
ordenador cuántico de relativamente pocos qubits, una máquina clásica puede predecir su salida. Pero una vez
que la máquina cuántica se acerca a unos 50 qubits, incluso las más grandes y clásicas supercomputadoras no
lograrían mantener el ritmo, según el equipo.

Los resultados del cálculo no tendrán ningún uso, pero demostrarían que hay tareas en las que las computadoras
cuánticas son inmejorables –un umbral psicológico importante que atraerá la atención de clientes potenciales,
dice Martinis–. “Creemos que será un experimento seminal”.

Pero Schoelkopf no ve la supremacía cuántica como “un objetivo muy interesante o útil”, en parte porque esquiva
el reto de la corrección de errores: la capacidad del sistema para recuperar su información tras ligeras
perturbaciones a los qubits, lo cual se hace más difícil si el número de qubits aumenta. En su lugar, Quantum
Circuits está enfocado en la fabricación de máquinas con errores totalmente corregidos desde el principio. Esto
requiere construir más qubits, pero las máquinas también podrían ejecutar algoritmos cuánticos más sofisticados.

Monroe espera alcanzar la supremacía cuántica pronto, pero ese no es el objetivo principal de IonQ. La puesta en
marcha pretende construir máquinas que tengan 32 o incluso 64 qubits, y la tecnología de trampa de iones
permitirá que sus diseños sean más flexibles y escalables que los circuitos superconductores, dice.

Microsoft, mientras tanto, está apostando por la tecnología que tiene más que probar. La computación cuántica
topológica depende de las excitaciones de la materia que codifica la información enredándose entre sí como
trenzas. La información almacenada en estos qubits sería mucho más resistente a perturbaciones externas que
otras tecnologías y, en particular, facilitaría la corrección de errores.

Nadie ha logrado crear el estado de materia necesario para tales excitaciones, y mucho menos un qubit topológico.
Pero Microsoft ha contratado a cuatro líderes en el área, incluyendo a Leo Kouwenhoven de la Universidad de
Delft, en los Países Bajos, que ha creado lo que parece ser el tipo correcto de excitación. “Les digo a mis
estudiantes que 2017 es el año del entrelazamiento”, dice Kouwenhoven, quien ahora construirá un laboratorio
de Microsoft en el campus de Delft.

Otros investigadores son más cautelosos. “No estoy haciendo ningún comunicado de prensa sobre el futuro”, dice
Blatt. David Wineland, físico del Instituto Nacional de Estándares y Tecnología de Boulder, Colorado y quien
dirige un laboratorio que trabaja en trampas de iones, tampoco está dispuesto a hacer predicciones específicas.
“Soy optimista en el largo plazo”, dice, “pero lo que significa ‘a largo plazo’, no lo sé”.

Este artículo se reproduce con permiso y se publicó por primera vez el 3 de enero de 2017.

¿Por qué?
_________________________________________________________________________________________
_________________________________________________________________________________________
_________________________________________________________________________________________
_________________________________________________________________________________________
El problema de Facebook va más allá de noticias falsas
La afirmación popular de que el "filtro burbuja" es la razón por la que la noticia falsa prospera en Facebook
es casi errónea.

Por R. Kelly Garrett, The Conversation el 22 de noviembre de 2016

El siguiente ensayo se publica con el permiso de The Conversation, una publicación en línea que cubre las
investigaciones más recientes.

A raíz de la inesperada victoria de Donald Trump, se han planteado muchas preguntas sobre el papel de Facebook
en la promoción de información inexacta y altamente partidista durante la carrera presidencial y si estas falsas
noticias influyeron en el resultado de la elección.

Algunos han minimizado el impacto de Facebook, incluyendo el CEO Mark Zuckerberg, quien dijo que es
"extremadamente improbable" que las noticias falsas pudieran haber influido el resultado de las elecciones. Pero
las preguntas sobre el impacto político de la red social merecen más que un vistazo superficial.

¿Los algoritmos de filtrado de Facebook explican por qué tantos liberales tenían una confianza equivocada en
una victoria de Clinton (haciéndose eco del error cometido por los partidarios de Romney en 2012)? ¿Y son las
noticias falsas que circulan en Facebook la razón por la que tantos partidarios de Trump han apoyado las
declaraciones demostrablemente falsas hechas por su candidato?

La afirmación popular de que "el filtro burbuja" es la razón de que las falsas noticias prosperan en Facebook es
ciertamente errónea. Si la red está alentando a la gente a creer mentiras –y eso es un un gran si– el problema más
bien reside en cómo la plataforma interactúa con las tendencias sociales humanas básicas. Eso es mucho más
difícil de cambiar.

UN PÚBLICO DESINFORMADO

El papel de Facebook en la difusión de noticias políticas es innegable. En mayo de 2016, el 44 por ciento de los
estadounidenses dijeron que recibían sus noticias de la red social. La prevalencia de la desinformación difundida
a través de Facebook es difícil de negar.

Es plausible, entonces, que la cantidad de noticias falsas en una plataforma donde tanta gente recibe sus noticias
pueda ayudar a explicar por qué tantos estadounidenses están mal informados sobre política.

Pero es difícil decir cuán probable es esto. Comencé a estudiar el papel de Internet en la promoción de falsas
creencias durante la elección de 2008, enfocando mi atención a los medios sociales en 2012. En investigación
que aún está en curso, encontré poca evidencia consistente de que las redes sociales promuevan la aceptación de
afirmaciones falsas sobre los candidatos, a pesar de la prevalencia de muchas mentiras. En cambio, parece que
en 2012, al igual que en 2008, el correo electrónico siguió siendo un medio excepcionalmente poderoso para las
mentiras y teorías de conspiración. Los medios sociales no tenían un efecto notorio y confiable en las creencias
de la gente.

Por un momento, sin embargo, supongamos que 2016 fue diferente de 2012 y 2008. (La elección fue ciertamente
única en muchos otros aspectos.)

Si Facebook está promoviendo una plataforma en la cual los ciudadanos son menos capaces de discernir la verdad
de la ficción, constituiría una seria amenaza para la democracia estadounidense. Pero nombrar el problema no es
suficiente. Para combatir el flujo de la desinformación a través de las redes sociales, es importante entender por
qué sucede.
NO CULPE AL FILTRO BURBUJA

Facebook quiere que sus usuarios estén comprometidos, no abrumados, por lo que emplea un software propietario
que filtra los canales de noticias de los usuarios y elige el contenido que aparecerá. El riesgo radica en cómo se
realiza esta adaptación.

Existe una amplia evidencia de que las personas se sienten atraídas por las noticias que afirman su punto de vista
político. El software de Facebook aprende de las acciones pasadas de los usuarios: trata de adivinar en cuáles
historias es probable que los usuarios hagan clic o decidan compartir en el futuro. Llevado a su extremo, esto
produce un filtro burbuja, en el que los usuarios están expuestos solo a contenidos que reafirman sus sesgos. El
riesgo entonces, es que el filtro burbuja promueva percepciones erróneas escondiendo la verdad.

El atractivo de esta explicación es obvio. Es fácil de entender, así que quizás sea fácil de arreglar. Deshágase de
los canales de noticias personalizados y el filtro burbuja desaparecerá.

El problema con la metáfora del filtro burbuja es que asume que la gente está perfectamente aislada de otras
perspectivas. De hecho, numerosos estudios han demostrado que las “dietas” individuales de los medios casi
siempre incluyen información y fuentes que enfrentan sus actitudes políticas. Un estudio sobre los datos de
usuarios de Facebook reflejó que los encuentros con información cruzada están muy extendidos. En otras
palabras, es poco probable que las creencias falsas sean explicadas por la falta de contacto de las personas con
noticias más precisas.

En cambio, las identidades políticas preexistentes de las personas moldean profundamente sus creencias. Por lo
tanto, incluso cuando se enfrentan a la misma información, ya sea un artículo noticioso o una comprobación de
hechos, las personas con diferentes orientaciones políticas suelen darle un significado dramáticamente diferente.

Un experimento puede ayudar: si usted era partidario de Clinton, ¿era consciente de que el altamente respetado
sitio de predicción FiveThirtyEight le dio a la candidata solo un 71 por ciento de posibilidades de ganar? Esas
probabilidades eran mejor que lanzar una moneda al aire, pero estaban lejos de ser una cosa segura. Sospecho
que muchos demócratas se sorprendieron a pesar de encontrar esta evidencia incómoda. De hecho, muchos habían
criticado esta proyección en los días previos a las elecciones.

Si usted votó por Trump, ¿ha encontrado alguna vez pruebas que contradigan la afirmación de Trump de que el
fraude electoral es común en los Estados Unidos? Verificadores de datos (fact checkers) y organizaciones de
noticias han cubierto este tema ampliamente, ofreciendo pruebas sólidas de que la afirmación es falsa. Sin
embargo, un partidario de Trump podría no ser persuadido: en una encuesta de septiembre de 2016, el 90 por
ciento de los partidarios de Trump dijeron que no confiaban en los verificadores de datos.

¿FACEBOOK = PARTIDARIOS ENOJADOS?

Si el aislamiento de la verdad es realmente la principal fuente de información inexacta, la solución sería obvia:
hacer la verdad más visible.

Desafortunadamente, la respuesta no es tan simple. Lo que nos lleva de nuevo a la cuestión de Facebook: ¿Existen
otros aspectos del servicio que puedan distorsionar las creencias de los usuarios?

Pasará algún tiempo antes de que los investigadores puedan responder a esta pregunta con seguridad, pero como
alguien que ha estudiado cómo las diversas formas en que otras tecnologías de Internet pueden llevar a la gente
a creer información falsa, estoy preparado para ofrecer algunas conjeturas bien fundamentadas.

Hay dos cosas que ya sabemos acerca de Facebook que podrían fomentar la difusión de información falsa.

Primero, las emociones son contagiosas y pueden propagarse en Facebook. Un estudio a gran escala ha
demostrado que pequeños cambios en las noticias de los usuarios de Facebook pueden moldear las emociones
que expresan en los posts posteriores. En ese estudio, los cambios emocionales fueron pequeños, pero también
lo fueron los cambios en la fuente de noticias que los causó. Imagínense cómo los usuarios de Facebook
responden a acusaciones generalizadas de corrupción, actividad criminal y mentiras de los candidatos. No es
sorprendente que casi la mitad (49 por ciento) de todos los usuarios describió la discusión política en las redes
sociales como “enojado".

Cuando se trata de política, la ira es una emoción poderosa. Se ha demostrado que la gente está más dispuesta a
aceptar mentiras partidistas y más propensos a publicar y compartir información política presumiblemente falsas,
incluyendo artículos de noticias que refuerzan sus creencias. Si el uso de Facebook hace que los partidarios se
enojen mientras también los exponen a mentiras partidistas, asegurar la presencia de información precisa puede
no importar mucho. Republicano o demócrata, la gente enojada pone su confianza en la información que hace
que su lado se vea bien.

En segundo lugar, Facebook parece reforzar la identidad política de la gente, fomentando una, ya gran, división
partidista. Si bien, Facebook no protege a la gente de la información con la que no está de acuerdo, sin duda hace
que sea más fácil encontrar a otros que piensan lo mismo. Nuestras redes sociales tienden a incluir a muchas
personas que comparten nuestros valores y creencias. Y esto puede ser otra forma en la que Facebook está
reforzando mentiras motivadas políticamente. Las creencias a menudo sirven a una función social, ayudando a
las personas a definir quiénes son y cómo encajan en el mundo. Cuanto más fácil sea que las personas se vean en
términos políticos, más apegadas están a las creencias que afirman esa identidad.

Estos dos factores –la forma en que la ira puede propagarse a través de las redes sociales de Facebook y cómo
esas redes pueden hacer que la identidad política de los individuos sea más centrada en quiénes son ellos–
probablemente explican las creencias imprecisas de los usuarios de Facebook con mayor eficacia que el llamado
filtro burbuja.

Si esto es cierto, entonces tenemos un desafío serio delante de nosotros. Facebook probablemente estará
convencido de cambiar su algoritmo de filtrado para priorizar información más precisa. Google ya ha emprendido
un esfuerzo similar. Los informes recientes sugieren que Facebook puede estar tomando el problema más en serio
que lo que los comentarios de Zuckerberg sugieren.

Pero esto no hace nada para corregir las fuerzas subyacentes que propagan y refuerzan la información falsa: las
emociones y las personas en sus redes sociales. Tampoco es obvio que estas características de Facebook pueden
o deben ser "corregidas". Una red social desprovista de emoción parece una contradicción y fiscalizar la
interacción de los individuos no es algo que nuestra sociedad debería enfrentar.

Puede ser que Facebook comparta parte de la culpa de algunas de las mentiras que circularon este año electoral,
y que alteraron el curso de las elecciones.

¿Por qué?
_________________________________________________________________________________________
_________________________________________________________________________________________
_________________________________________________________________________________________
_________________________________________________________________________________________
El Internet de las cosas crece más rápido que la
habilidad de defenderlo
La utilización de dispositivos conectados empleados el pasado 21 de octubre para atacar a la Web es una
llamada de atención para el Internet de las cosas.

Por Larry Greenemeier el 2 de noviembre de 2016

Al acercarse la temporada de regalos de este año, el rápido crecimiento del “Internet de las cosas” o IoT, en inglés
—que fue aprovechado para interrumpir el acceso a la Web, el viernes 21 de octubre— está a punto de
transformarse en algo mucho más grande, y veloz. Seguramente, las listas de deseos para Navidad estén llenas
de relojes inteligentes, trackers para ejercicio, cámaras de vigilancia para la casa y otros dispositivos con wifi que
se conectan a Internet para subir fotos, vídeos y datos de rutinas a la nube. Lamentablemente, estos dispositivos
también son vulnerables a los virus y a otros programas maliciosos (malware) que pueden usarse para convertirlos
en armas virtuales sin el consentimiento ni el conocimiento de sus propietarios.

El 21 de octubre, los ataques distribuidos de denegación de servicio (DDoS) —en los que decenas de millones
de dispositivos hackeados fueron aprovechados para bloquear y desconectar servidores de la web— son una mala
señal para el Internet de las cosas. Un DDoS es un ataque cibernético en el que gran cantidad de dispositivos son
programados para solicitar acceso a la misma página web al mismo tiempo, creando un cuello de botella en el
tráfico de datos que corta el acceso al sitio. En este caso, los atacantes, aún desconocidos, utilizaron un malware
llamado “Mirai” para introducirse en dispositivos cuyas contraseñas podían adivinar, ya sea porque los
propietarios no pudieron o no cambiaron las contraseñas que traen los aparatos por defecto.

El IoT es un universo virtual amplio y creciente que incluye autos, dispositivos médicos, sistemas industriales y
una cantidad cada vez mayor de aparatos electrónicos de consumo. Estos incluyen consolas de videojuegos,
altavoces inteligentes, como el Amazon Echo y termostatos conectados como Nest, además de los puertos
inteligentes para el hogar y routers en red que conectan los dispositivos a Internet y entre sí. En los últimos 15
años, los productos tecnológicos han representado más de 73 por ciento del gasto en regalos para las fiestas en
EE.UU. cada año, según la Asociación de Tecnología de Consumo (CTA, en sus siglas en inglés). Este año, el
CTA prevé que alrededor de 170 millones de personas compren regalos que contribuyan al IoT, y la empresa de
investigación y consultoría Gartner predice que estas redes crecerán hasta sumar 50.000 millones de dispositivos
en todo el mundo en 2020. A menos de un mes del Black Friday es poco probable que los fabricantes de estos
dispositivos sean capaces de arreglar los fallos de seguridad que abrieron la puerta a los ataques ocurridos la
semana pasada.

Antes del ataque del IoT que paralizó temporalmente la web en gran parte del noreste y otras áreas de EE.UU.,
ha habido indicios de que un gran hecho como este era inminente. En setiembre, una red —o “botnet”— de
dispositivos de IoT infectados por Mirai puso en marcha un DDoS que cerró el sitio KrebsOnSecurity.com que
dirige el periodista de investigación en ciberseguridad Brian Krebs. Unas semanas más tarde, alguien publicó el
código fuente de Mirai abiertamente en Internet para que cualquiera pudiera usarlo. En cuestión de días, Mirai
estaba en el centro de los ataques que la semana pasada afectó a la empresa Dyn de EE.UU., un proveedor de
servicios de sistema de nombres de dominio (DNS). Los servidores de Dyn actuaron como una central de
distribución de Internet traduciendo una dirección web en su protocolo de Internet correspondiente (IP). Un
navegador de Internet necesita esa dirección IP para encontrar y conectarse al servidor que aloja el contenido de
ese sitio.

Los ataques del viernes 21 de octubre mantuvieron ocupados a los equipos de los sitios de PlayStation Network
de Sony, Twitter, GitHub y Spotify la mayor parte del día, pero tuvieron poco impacto en los propietarios de los
dispositivos hackeados. La mayoría de las personas cuyas cámaras y otros dispositivos digitales estuvieron
involucrados nunca lo sabrán, dijo Matthew Cook, cofundador de Panopticon Laboratories, una compañía que se
especializa en el desarrollo de ciberseguridad para juegos en línea. Cook habló en un panel durante una
conferencia de seguridad cibernética en Nueva York, a finales de octubre.
Pero es probable que los consumidores empiecen a prestar más atención cuando se den cuenta de que alguien
puede espiarlos al piratear las cámaras web de su casa, dijo otro conferencista, Andrew Lee, CEO del fabricante
de software de seguridad ESET North America. Un atacante podría utilizar una cámara web para conocer las
rutinas diarias de los habitantes de una casa —y así saber cuándo no hay nadie— o incluso para registrar las
contraseñas a medida que los usuarios las escriben en las computadoras o en los dispositivos móviles, agregó
Lee.

El IoT se está expandiendo más rápido que el interés de los fabricantes de dispositivos por la seguridad
cibernética. Según un informe publicado el 24 de octubre por la Alianza Nacional de Ciberseguridad y ESET,
splo la mitad de los 15.527 consumidores encuestados dijo que las preocupaciones sobre la seguridad cibernética
de un dispositivo IoT los han disuadido de comprar uno. Un poco más de la mitad de los encuestados dijo que
posee hasta tres dispositivos —además de sus computadoras y teléfonos inteligentes— que se conectan a sus
routers domésticos, y 22 por ciento tiene entre cuatro y 10 aparatos conectados. Sin embargo, 43 por ciento de
los encuestados informó que no cambió la contraseña que trae el router por defecto o no está seguro de haberlo
hecho. Además, las contraseñas de algunos dispositivos son difíciles de cambiar y otros tienen contraseñas
permanentes codificadas.

Mientras los fabricantes de dispositivos conectados tienen poco tiempo para solucionar los problemas de
seguridad antes de las fiestas, varios investigadores de seguridad cibernética recomiendan a los consumidores
que por lo menos se aseguren de que los routers instalados en sus hogares estén protegidos por una contraseña
segura.

¿Por qué?
_________________________________________________________________________________________
_________________________________________________________________________________________
_________________________________________________________________________________________
_________________________________________________________________________________________
¿Podemos abrir la caja negra de la inteligencia
artificial?
La inteligencia artificial está en todas partes. Pero antes de que los científicos confíen en ella, deben
entender cómo aprenden las máquinas.

Por Davide Castelvecchi, Revista Nature el 11 de octubre de 2016

Dean Pomerleau todavía puede recordar la primera vez que se enfrentó al problema de la caja negra. Era el año
1991 y estaba haciendo un intento pionero por hacer algo que hoy en día es común en las investigaciones para
desarrollar vehículos autónomos: enseñar a una computadora a conducir.

Esto significaba tomar el volante de un vehículo militar Humvee con un equipo especial y conducirlo a través de
las calles de una ciudad, dice Pomerleau, que era entonces un estudiante de robótica en la Universidad Carnegie
Mellon en Pittsburgh, Pennsylvania. Junto a él en el Humvee había una computadora programada para mirar a
través de una cámara, interpretar qué estaba ocurriendo en la carretera y memorizar cada movimiento que hacía
él en respuesta a ello. Con el tiempo, la máquina podría producir suficientes asociaciones para manejar por sí
sola, o al menos eso esperaba Pomerleau.

En cada viaje, Pomerleau entrenaba al sistema durante unos minutos y luego lo dejaba libre para que manejara
por sí solo. Todo parecía ir bien hasta que un día el Humvee se acercó a un puente y de repente se desvió hacia
un costado. Él evitó un choque agarrando el volante rápidamente y tomando de nuevo el control.

De vuelta en el laboratorio, Pomerleau trataba de entender por qué la computadora había fallado. “Parte de mi
tesis consistía en abrir la caja negra y averiguar qué estaba pensando”, explica. Pero, ¿cómo? Él había programado
la computadora para actuar como una ‘red neuronal’ –un tipo de inteligencia artificial (IA) que se inspira en el
cerebro y que prometía ser mejor que los algoritmos normales para tratar situaciones complejas del mundo real–
. Desafortunadamente, este tipo de redes son tan opacas como el cerebro. En lugar de almacenar lo que han
aprendido en un bloque de memoria digital, difunden la información de una manera que es muy difícil de
descifrar. Solo después de probar exhaustivamente las respuestas de su software a diversos estímulos visuales,
Pomerleau descubrió el problema: la red había estado utilizando los bordes con pastos como una guía para la
dirección de la carretera y el aspecto del puente la confundió.

Veinticinco años después, descifrar la caja negra se ha convertido en algo exponencialmente más difícil y más
urgente. Esta tecnología se ha disparado tanto en su complejidad, como en sus aplicaciones. Pomerleau, que ahora
enseña robótica a tiempo parcial en la Universidad Carnegie Mellon, describe el pequeño sistema que montó en
la furgoneta como una “versión de hombre pobre” de las enormes redes neuronales que son parte de las máquinas
de hoy en día. Y las técnicas de aprendizaje profundo, con las que las que se programan las redes con vastos
archivos de datos, está encontrando aplicaciones comerciales que van desde automóviles que se conducen solos
a los sitios web que recomiendan productos con base en el historial de navegación del usuario.

La inteligencia artificial promete volverse omnipresente en la ciencia, también. Futuros observatorios de


radioastronomía necesitarán hacer “aprendizaje profundo” para encontrar señales que valgan la pena entre
cantidades inmanejables de datos; los detectores de ondas gravitacionales lo usarán para entender y eliminar las
fuentes de ruido más pequeñas; y los editores lo utilizarán para rastrear y etiquetar millones de artículos de
investigación y libros. Con el tiempo, algunos investigadores creen, puede que haya incluso ordenadores
equipados con aprendizaje profundo que muestren imaginación y creatividad. “Usted podría simplemente aportar
datos a esta máquina y le respondería con las leyes de la naturaleza, dice Jean-Roch Vlimant, un físico del Instituto
de Tecnología de California, en Pasadena.

Sin embargo, estos avances podrían hacer que el problema de la caja negra sea aún más grave. Por ejemplo,
¿cómo está exactamente una máquina encontrando esas señales que valen la pena? ¿Y cómo puede alguien estar
seguro de que esa forma es correcta? ¿Hasta qué punto debería la gente confiar en el aprendizaje profundo? “Creo
que definitivamente estamos perdiendo terreno frente a estos algoritmos”, dice el especialista en robótica Hod
Lipson, de la Universidad de Columbia, en la ciudad de Nueva York. Él compara la situación con un encuentro
con una especie alienígena inteligente cuyos ojos tienen receptores no solo para los colores primarios rojo, verde
y azul, sino también para un cuarto color. Sería muy difícil para los seres humanos entender cómo este
extraterrestre ve el mundo y sería difícil que el alienígena nos lo explique, dice. Las computadoras tendrán
dificultades similares para explicarnos cosas a nosotros, dice. “En algún momento, será como explicarle
Shakespeare a un perro”.

Frente a estos desafíos, los investigadores de IA están respondiendo al igual que lo hizo Pomerleau –abriendo la
caja negra y haciendo el equivalente a lo que hace la neurociencia para entender las redes del interior–. Las
respuestas son reveladoras, dice Vincenzo Innocente, físico del CERN, el laboratorio europeo de física de
partículas cerca de Ginebra, Suiza, que ha sido pionero en la aplicación de la IA en este campo. “Como científico”,
dice, “no estoy satisfecho con distinguir a los gatos de los perros. Un científico quiere ser capaz de decir: “la
diferencia es tal y tal”.

¿Por qué?
_________________________________________________________________________________________
_________________________________________________________________________________________
_________________________________________________________________________________________
_________________________________________________________________________________________

También podría gustarte