Está en la página 1de 3

26/3/2015

Cmo podra la superinteligencia artificial acabar con la humanidad en un segundo? - RT

Cmo podra la
superinteligencia
artificial acabar con la
humanidad en un
segundo?
Publicado: 26 mar 2015 18:38 GMT
780

194

darkgeometryart.deviantart.com

La creacin de la superinteligencia artificial acarrea el


grave problema de que las mquinas puedan escapar
del control humano y actuar con 'voluntad' propia. De
ser as, podran acabar con la humanidad en un
segundo.
Esta opinin sobre el peligro que acarrea la inteligencia
artificial corresponde al matemtico y filsofosueco Nick
Bostorm, director del Instituto para el Futuro de la
Humanidad, de la Universidad de Oxford, y autor del
famoso libro 'La superinteligencia: caminos, peligros,
estrategias'.En una entrevista a la revista 'Esquire'el
filsofo explic por qu, desde su punto de vista, no hay
que alegrarse mucho de los avances en la investigacin de
la superinteligencia artificial.
data:text/html;charset=utf-8,%3Ch1%20class%3D%22arcticle-heading%22%20style%3D%22margin%3A%208px%200px%206px%3B%20padding%3A%2

1/3

26/3/2015

Cmo podra la superinteligencia artificial acabar con la humanidad en un segundo? - RT

Y no es nico que piensa as. ltimamente se ha reavivado


el tema delas consecuencias de la creacin de la
superinteligencia artificialy varios cientficos, entre
ellosElon MuskyStephen Hawking, se han pronunciado
en contra de estos avances ya que en su opinin pueden
representar una amenaza para la humanidad.
SEPAMS:Stephen Hawking y Elon Musk advierten sobre
un levantamiento de robots
En la entrevista Nick Bostorm seala queen esferas como
la logstica, el reconocimiento automtico del habla y la
bsqueda de informacin, las mquinas ya superan al
ser humano, pero "an no disponen del razonamiento
como tal" y la creacin de la superinteligencia artificial es
todava una cuestin de tiempo.
Segn mantiene el cientfico, la aparicin de la
superinteligencia artificial acarrea otro problema
relacionado con su posible rechazo a seguir estando bajo
el control de la humanidad.
LEATAMBIN:En 2045 "las especies principales ya no sern
los humanos"
Nick Bostorm asegura que, a diferencia de los tpicos
guiones de las pelculas de Hollywood, en los que las
mquinas con la superinteligencia artificial se ven
derrotadas por seres humanos con habilidades especiales,
en la vida real esto serapoco probable. Las mquinas
podran acabar con la humanidad en solo un segundo y
"la Tierra se convertira en un ordenador que se pasara
mil millones de aos haciendo clculos
incomprensibles".
Dado que resulta imposible impedir que los estudios
sobre la superinteligencia artificial continen, Nick Bostorm
cree que es necesario "centrarse en el trabajo que pueda
reducir los riesgos que supone la superinteligencia artificial
incontrolada antes de que sea creada". Para conseguirlo,
se debe "fundar una comunidad profesional que una a
data:text/html;charset=utf-8,%3Ch1%20class%3D%22arcticle-heading%22%20style%3D%22margin%3A%208px%200px%206px%3B%20padding%3A%2

2/3

26/3/2015

Cmo podra la superinteligencia artificial acabar con la humanidad en un segundo? - RT

personas de negocios, cientficos e investigadores", una


comunidad que"dirijatambin los estudios cientficos en
la direccin segura y elabore medios de control sobre sus
resultados", sealel famoso cientfico.

data:text/html;charset=utf-8,%3Ch1%20class%3D%22arcticle-heading%22%20style%3D%22margin%3A%208px%200px%206px%3B%20padding%3A%2

3/3

También podría gustarte