Vivimos en una era de cambios, avances y descubrimientos, tanto científicos como tecnológicos. Todos estas novedades nos salvan de situaciones de muerte, curan enfermedades, nos facilitan el día a día, etc. A priori esta etapa de cambios solo nos aporta factores positivos como sociedad. Si nos hablan de la inteligencia artificial o de una vida compartida con robots no pensamos en una película de ciencia ficción, sino en la realidad y en todas las noticias que recibimos a diario de todos los avances. El problema es no saber gestionar bien todas los progresos que realizamos, y de este modo, terminar siendo los responsables de nuestro propio final. El profesor y filósofo de Oxford, Nick Bostrom ya nos alerta: “No tendremos una segunda oportunidad con la inteligencia artificial”. La pregunta es: ¿Hasta que punto pueden resultar peligrosos todos estos progresos? ¿Estamos yendo en la dirección adecuada?
Por desgracia, es un hecho incuestionable que el progreso científico puede acabar generando resultados terribles. Las investigaciones en física atómica, por ejemplo, tan beneficiosas en tantos sentidos, están también en el origen del peligro de las bombas atómicas o de las amenazas de los accidentes que pueden ocurrir en las centrales atómicas, como sucedió en el caso de Chernóbil. De hecho, el tema de los avances tecnológicos en un futuro (cada vez menos) lejano era un tema muy recurrente en el cine hace unos años, véanse 2001: Una odisea del espacio, Inteligencia Artificial o Blade Runner como ejemplos. En muchos de estos casos presentan una distopía en la cual la mala gestión de nuestro poder como creadores termina afectando negativamente de una manera u otra a la sociedad.
Ese es lo que debemos evitar, y de indagar como evitarlo se encarga el Instituto para el Futuro de la Humanidad. Se trata de un grupo de filósofos, matemáticos, tecnólogos, economistas y físicos que tienen como labor analizar e idear la ruta que debemos seguir para avanzar de forma correcta y segura hacia el futuro junto con las nuevas máquinas. Debemos prevenir los resultados de cada paso que damos, saber qué va a ocurrir tras cada avance, para poder detectar a tiempo los posibles errores que podamos cometer, de manera que tengamos la oportunidad de enmendarlos. Estamos yendo por un camino que tiene como objetivo crear máquinas con nuestras mismas capacidades, que puedan razonar y evolucionar. ¿Qué pasaría si creamos computadoras cuyos intereses difieren con los nuestros? Perderíamos todo el control y ello podría causar nuestro fin. Es por esto por lo que debemos diseñar sistemas que concuerden con nuestros valores y que tengan en cuenta los principios éticos, para que de este modo sigan el camino y alcancen los objetivos para los que fueron creados.
Otro campo que preocupa es la biotecnología. Los avances en este sector traerían grandes mejoras en el sistema de salud y de este modo podríamos evitar muchas muertes. El problema es que estos progresos pueden ser empleados como un arma de doble filo. Por ejemplo, si un patógeno de diseño termina cayendo en malas manos podría causar una epidemia a nivel mundial. Todos los descubrimientos que se realizan nos abren un montón de puertas y dan lugar a muchos nuevos caminos por los que seguir hacia un futuro prometedor. Pero sin olvidar que, en este ámbito, elegir el camino incorrecto podría tener graves consecuencias.
Una vez leído esto debemos reflexionar: ¿Será la sociedad capaz de gestionar todos los avances que se realizan de manera tan rápida? ¿Los robots nos enriquecerán o nos reemplazarán? ¿Será la Inteligencia Artificial la causante del fin de la humanidad?
Clara Cidrás Fernández 1ºC
No hay comentarios:
Publicar un comentario