Está en la página 1de 3

Por Greg Scoblete

Nota del editor: Greg Scoblete es editor de tecnologa de la revista PDN. Sguelo en @GregScoblete.

(CNN) Imagina que eres la clase de persona que se preocupa por un futuro en el que los robots sern

lo suficientemente inteligentes como para amenazar la existencia misma de la raza humana. Durante aos

te han tildado de loco, etiquetado en la misma categora en la que est la gente que ve a Elvis acechando

en sus waffles.

En 2014 tuviste buena compaa.

Si ests viendo esta nota en tu mvil, mira aqu la galera.

Se dice que este ao, la mente cientfica viviente ms grande del mundo, Stephen Hawking, y el principal

industrial de la tecnologa, Elon Musk, manifestaron su temor por el ascenso potencialmente letal de la

inteligencia artificial (IA, su abreviatura en ingls). A ellos se unieron filsofos, fsicos e informticos,

quienes hablaron sobre el grave riesgo que representa el desarrollo de una inteligencia mecnica superior

a la humana.

En un multicitado editorial escrito en colaboracin con el fsico del Tecnolgico de Massachusetts, Max

Tegmark, el nobel Frank Wilczek y el informtico Stuart Russell, Hawking hizo sonar la alarma por la IA.

"Solo podemos imaginar una [la IA] ms inteligente que los mercados financieros, que supera en

creaciones a los investigadores humanos, manipula a los lderes humanos y desarrolla armas que ni

siquiera podemos entender. Aunque el impacto a corto plazo de la IA depende de quin la controle, el

impacto a largo plazo depende de si puede controlarse en algn grado".

Se dice que Musk fue ms enftico y tuite advertencias en las que dice que la IA es el mayor "riesgo

existencial" para la humanidad y la compara con "invocar al demonio".


El debate sobre la IA tuvo gran impulso este ao con la publicacin del libroSuperintelligence: Paths,

Dangers, Strategies (Superinteligencia: vas, peligros y estrategias) del filsofo Nick Bostrom, quien hace un

estudio detallado del por qu y cmo la IA podra ser tan catastrficamente peligrosa. (En el
documentalOur Final Invention [nuestra ltima invencin] que James Barrat produjo en 2013 se presenta un

argumento similar).

Bostrom dirige el Instituto Futuro de la Humanidad en Oxford, una de las varias instituciones nuevas que

se dedican al estudio de las amenazas a la existencia de la raza humana, entre las que destaca la IA. En

mayo de 2014, el Instituto Tecnolgico de Massachusetts bautiz a su propio Instituto Futuro de la Vida. Al

menos en la comunidad acadmica, crece el nerviosismo por la IA.

Tienen razn de estar preocupados.

La cuestin principal y ms inmediata es el potencial que tiene la IA de dejar a grandes cantidades de

humanos sin trabajo. En un estudio que hicieron Carl Frey y Michael Osborne, del Programa sobre los
Efectos de la Tecnologa Futura de Oxford, se trata el tema con seriedad. Analizaron ms de 700 trabajos

diferentes, de los cuales casi la mitad podra hacerlos una computadora en el futuro. Esta ola de

computarizacin no destruira simplemente los trabajos de salarios bajos que requieren poca capacitacin

(aunque estn en grave peligro), sino algunos trabajos administrativos y del sector de servicios que

anteriormente se crean inmunes. La tecnologa marcha sobre nuestras labores manuales y mentales.
LEE: Las computadoras podran tomar el control de las mesas directivas?

La prdida de empleos es una amenaza grave y ya hemos visto esta pelcula antes. Durante las

convulsiones tecnolgicas anteriores, los humanos crearon sagazmente empleos e industrias con las

cenizas de los que quedaron obsoletos. Tal vez podamos mantener a la colectividad a flote a pesar de que

la IA se arraigue en sectores ms creativos e intelectuales (rayos, tal vez incluso empecemos a trabajar

menos).

Lo que debera preocuparnos ms es que la humanidad pierda su lugar privilegiado como la inteligencia

superior de la Tierra.

Para aquellas personas a las que la IA pone nerviosos, los esfuerzos actuales por desarrollar
algoritmos autocorregibles (el llamado "aprendizaje de las mquinas"), aunados al implacable crecimiento

de la potencia de las computadoras y a la creciente ubicuidad de los sensores que recopilan toda clase de

inteligencia e informacin alrededor del mundo, llevarn a la IA a los niveles de la inteligencia humana y,

finalmente, a la sobrehumana. Es un evento al que se ha llamado "la explosin de la inteligencia", trmino

que acu en 1965 el informtico Irving John Good en un ensayo en el que delinea el proceso de

desarrollo de la inteligencia artificial.

Lo que causa que la explosin de la inteligencia sea tan preocupante es que la inteligencia no es una

herramienta ni una tecnologa. Tal vez creamos que la IA es algo que usamos, como un martillo o un

sacacorchos, pero esa es fundamentalmente la forma equivocada de ver las cosas. Una inteligencia lo
suficientemente avanzada, como la nuestra, es una fuerza creativa. Entre ms poderosa sea, ms puede

moldear el mundo que la rodea.

La inteligencia artificial no tiene que ser malvola para ser catastrficamente peligrosa para la humanidad.

Cuando los informticos hablan de la posible amenaza que representa la IA superinteligente, no hablan
de Terminator ni deMatrix. Usualmente se trata de un fin ms prosaico: la humanidad exterminada porque

una IA a la que se asign una tarea sencilla (digamos, fabricar clips, un ejemplo que se usa con

frecuencia) requiere toda la energa y toda la materia prima de la Tierra para fabricar clips

incansablemente y evade inteligentemente todos los intentos humanos por detenerla.

En las historias de Hollywood siempre quedan humanos que contraatacan, pero ese desenlace sera
imposible si la humanidad se enfrentara a una inteligencia autnticamente superior. Sera como si unos

ratones trataran de ser ms sagaces que un humano (nosotros somos los ratones). En ese caso, los
investigadores de la IA, tales como Keefe Roedersheimer, ven un fin menos inspirador: "Toda la gente

muere".

Sobra decir que no todos tienen este pronstico sombro. Entre los optimistas de la IA, el futurista y

director de Ingeniera de Google, Ray Kurzweil, considera tambin que las mquinas inteligentes

precipitarn la extincin de la humanidad o algo as, solo que, segn Kurzweil, la humanidad no quedar

exterminada, sino integrada a una mquina superinteligente. La simbiosis entre humano y mquina no es

una catstrofe tecnolgica, sino la mxima liberacin de la fragilidad biolgica de la humanidad.

Otras personas dudan de que la IA alcance algn da niveles humanos de inteligencia y cognicin, ya no

digamos que la superen. Algunos, como Gary Marcus, de la Universidad de Nueva York, estn indecisos.

"No s de prueba alguna que indique que deberamos estar preocupados", me dijo a principios de 2014,

"pero tampoco s de prueba alguna que indique que no deberamos estar preocupados".

Irving John Good es famoso por haber descrito el desarrollo de una mquina ultrainteligente que sera "la

ltima invencin que el hombre necesitara" porque despus, la humanidad cedera las innovaciones y el

desarrollo tecnolgico a su progenie ms inteligente. Aunque el camino desde Siri a la extincin no es

directo, los humanos probablemente deberamos estar vigilando a nuestras mquinas un poco ms de

cerca.
Las opiniones recogidas en este texto pertenecen exclusivamente a Greg Scoblete.

Secciones: Opinin Tecnologa

También podría gustarte