Desde el SIRI hasta los autos sin conductor, la inteligencia
artificial (IA) progresa rápidamente. Mientras que la ciencia ficción a menudo
retrata a la IA como robots con características similares a las humanas, AI
puede abarcar desde algoritmos de búsqueda de Google hasta Watson de IBM y
armas autónomas.
Actualmente, la inteligencia artificial se conoce como IA
estrecha (o IA débil), ya que está diseñada para realizar una tarea limitada
(por ejemplo, solo reconocimiento facial o solo búsquedas en Internet o solo
conducir un automóvil). Sin embargo, el objetivo a largo plazo de muchos
investigadores es crear IA general (AGI o IA fuerte). Si bien la IA estrecha
puede superar a los humanos en lo que sea que sea su tarea específica, como
jugar al ajedrez o resolver ecuaciones, AGI superará a los humanos en casi
todas las tareas cognitivas.
¿POR QUÉ INVESTIGAR LA SEGURIDAD DE AI?
A corto plazo, el objetivo de mantener el impacto de la IA
en la sociedad beneficia la investigación en muchas áreas, desde economía y
derecho hasta temas técnicos como verificación, validez, seguridad y control.
Mientras que puede ser poco más que una molestia menor si su computadora
portátil falla o es pirateada, se vuelve aún más importante que un sistema de
inteligencia artificial haga lo que usted quiere que haga si controla su automóvil,
su avión, su marcapasos, su comercio automatizado sistema o su red eléctrica
Otro desafío a corto plazo es evitar una carrera armamentista devastadora en
armas letales autónomas.
A largo plazo, una pregunta importante es qué sucederá si la
búsqueda de IA fuerte tiene éxito y un sistema de inteligencia artificial se
vuelve mejor que los humanos en todas las tareas cognitivas. Como lo señala
I.J. Bueno en 1965, el diseño de sistemas inteligentes de IA es en sí mismo una
tarea cognitiva. Tal sistema podría potencialmente experimentar auto-mejora
recursiva, desencadenando una explosión de inteligencia que deja al intelecto
humano muy atrás. Al inventar nuevas tecnologías revolucionarias, tal
superinteligencia podría ayudarnos a erradicar la guerra, la enfermedad y la
pobreza, por lo que la creación de IA fuerte podría ser el evento más grande en
la historia de la humanidad. Algunos expertos han expresado su preocupación,
sin embargo, que también podría ser el último, a menos que aprendamos a alinear
los objetivos de la IA con los nuestros antes de que se vuelva
superinteligente.
Hay quienes se preguntan si alguna vez se logrará una
inteligencia artificial fuerte, y otros que insisten en que la creación de IA
superinteligente tiene la garantía de ser beneficiosa. En FLI reconocemos estas
dos posibilidades, pero también reconocemos la posibilidad de que un sistema de
inteligencia artificial cause un daño intencional o no intencional. Creemos que
la investigación de hoy nos ayudará a prepararnos mejor y a prevenir tales
consecuencias potencialmente negativas en el futuro, disfrutando así de los
beneficios de la IA y evitando las trampas.
¿CÓMO PUEDE AI SER PELIGROSO?
La mayoría de los investigadores coinciden en que es poco
probable que una IA superinteligente muestre emociones humanas como el amor o
el odio, y que no hay ninguna razón para esperar que la IA se vuelva
intencionalmente benévola o malévola. En cambio, al considerar cómo la IA puede
convertirse en un riesgo, los expertos consideran que hay dos escenarios más
probables:
La IA está programada para hacer algo devastador: las armas
autónomas son sistemas de inteligencia artificial que están programados para
matar. En manos de la persona equivocada, estas armas fácilmente podrían causar
bajas masivas. Además, una carrera de armamentos de inteligencia artificial
podría conducir inadvertidamente a una guerra de IA que también resultaría en
bajas masivas. Para evitar ser frustrados por el enemigo, estas armas estarían
diseñadas para ser extremadamente difíciles de "apagar", por lo que
los humanos podrían perder el control de tal situación. Este riesgo es uno que
está presente incluso con IA estrecha, pero crece a medida que aumentan los
niveles de inteligencia y autonomía de IA.
La IA está programada para hacer algo beneficioso, pero
desarrolla un método destructivo para lograr su objetivo: esto puede suceder
siempre que no logremos alinear completamente los objetivos de la IA con los
nuestros, lo cual es sorprendentemente difícil. Si le pides a un auto obediente
e inteligente que te lleve al aeropuerto lo más rápido posible, es posible que
te persigan en helicópteros y te cubran de vómitos, sin hacer lo que querías
sino literalmente lo que pediste. Si un sistema superinteligente tiene la tarea
de realizar un ambicioso proyecto de geoingeniería, podría causar estragos en
nuestro ecosistema como efecto secundario, y ver los intentos humanos para
detenerlo como una amenaza que se debe cumplir.
Como ilustran estos ejemplos, la preocupación sobre la IA
avanzada no es la malevolencia, sino la competencia. Una IA superinteligente
será extremadamente buena en el logro de sus objetivos, y si esos objetivos no
están alineados con los nuestros, tenemos un problema. Probablemente no eres un
malvado enemigo de las hormigas que pisa las hormigas por maldad, pero si estás
a cargo de un proyecto de energía verde hidroeléctrica y hay un hormiguero en
la región que se inunda, demasiado malo para las hormigas. Un objetivo clave de
la investigación de seguridad de IA es nunca colocar a la humanidad en la
posición de esas hormigas.
POR QUÉ EL INTERÉS RECIENTE EN SEGURIDAD IA
Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates y
muchos otros grandes nombres de la ciencia y la tecnología han expresado
recientemente su preocupación en los medios de comunicación y en cartas
abiertas sobre los riesgos planteados por la inteligencia artificial, junto con
muchos investigadores líderes en inteligencia artificial.
Comments
Post a Comment