Inteligencia artificial puede ser el último gran logro de la humanidad

Stephen Hawking mencionó en un editorial del diario Independent que el desarrollo de la inteligencia artificial puede ser el peor error de la humanidad
Hacker -
Hawking y los demás autores mencionan que uno de los riesgos en el corto plazo de esta misma tecnología, es que nos llevará a desarrollar sistemas de armamento autónomos. Foto: Getty
Hawking y los demás autores mencionan que uno de los riesgos en el corto plazo de esta misma tecnología, es que nos llevará a desarrollar sistemas de armamento autónomos. Foto: Getty

CIUDAD DE MÉXICO.- Stephen Hawking junto con otros tres renombrados científicos mencionó en un editorial del diario Independent que el desarrollo de la inteligencia artificial puede ser el peor error de la humanidad.

En la publicación, los científicos mencionan que clasificar a computadoras inteligentes como algo de ciencia ficción es un error. Particularmente debido al avance que se ha hecho en el campo tecnológico y que ya ofrece cosas como coches que se manejan solos, computadoras que ganan en Jeopardy, y asistentes personales como Siri y Cortana.

Los beneficios potenciales del desarrollo tecnológico son enormes, mencionan, ya que ayudarán a terminar con problemas como la guerra, enfermedades y pobreza. Sería el más grande logro de la humanidad, pero quizá también el último, afirman.

Hawking y los demás autores mencionan que uno de los riesgos en el corto plazo de esta misma tecnología, es que nos llevará a desarrollar sistemas de armamento autónomos. Este mismo tipo de armamentos se encuentra en proceso de ser prohibido por las Naciones Unidas.

En el largo plazo, el desarrollo de la inteligencia artificial podría llevarnos a un punto que es conocido como "singularidad", donde las computadoras serán más inteligentes que los humanos y, por lo tanto, serían impredecibles. 

"Podemos imaginar que dicha tecnología sería más inteligente que los mercados financieros, tendría más inventiva que los investigadores humanos, manipularía a los líderes humanos, y desarrollaría armas que no podríamos entender. Mientras que el impacto de corto plazo de la inteligencia artificial depende de quién la controla, el impacto de largo plazo depende de si puede ser controlada", escriben.

Los autores piden investigación, tanto pública como privada, para determinar la mejor manera de aprovechar los beneficios y evitar los riesgos de esta situación.

Junto con Stephen Hawking firman el texto Stuart Russell, profesor de la Universidad de California Berkeley; Max Tegmark, profesor del MIT; y Frank Wilczek, Nobel de Física.

Lee el texto original en el diario Independenta

Tips para tus finanzas personales directo en tu correo.
Al registrarme acepto los términos y condiciones

  TAGS

Taboola
Icono de te puede interesar de en dineroenimagen

TAMBIÉN TE PUEDE INTERESAR