Las 3 Etapas de La IA - Impacto Social

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 11

Las 3 etapas de la Inteligencia Artificial:

En cuál estamos y por qué muchos piensan que la


tercera puede ser fatal
Veronica Smink
BBC News Mundo

29 mayo 2023

FUENTE DE LA IMAGEN,GETTY IMAGES


Pie de foto,
La etapa final de la IA preocupa a muchos expertos.

Desde que se lanzó a finales de noviembre 2022, ChatGPT, el chatbot que usa
inteligencia artificial (IA) para responder preguntas o generar textos a pedido
de usuarios, se ha convertido en la aplicación de internet con el crecimiento
más rápido de la historia.
En apenas dos meses llegó a tener 100 millones de usuarios activos. A la popular
app TikTok le tardó nueve meses alcanzar ese hito. Y a Instagram dos años y medio,
según datos de la empresa de monitoreo tecnológico Sensor Town.
"En los 20 años que llevamos siguiendo internet, no podemos recordar un
incremento más veloz de una aplicación de internet para consumidores", afirmaron
analistas de UBS, quienes reportaron el récord en febrero.
La masiva popularidad de ChatGPT, desarrollado por la empresa OpenAI, con
respaldo financiero de Microsoft, ha despertado todo tipo de discusiones y
especulaciones sobre el impacto que ya está teniendo y que tendrá en nuestro
futuro cercano la inteligencia artificial generativa.
Se trata de la rama de la IA que se dedica a generar contenido original a partir de
datos existentes (usualmente sacados de internet) en respuesta a instrucciones de
un usuario.
Los textos (desde ensayos, poesías y chistes hasta códigos de computación) e
imágenes (diagramas, fotos, obras de arte de cualquier estilo y mucho más)
producidos por IA generativas como ChatGPT, DALL-E, Bard y AlphaCode -para
nombrar solo algunas de las más conocidas- son, en algunos casos,
tan indistinguibles del trabajo humano, que ya han sido usados por miles de
personas para reemplazar su labor habitual.
Desde estudiantes que los usan para hacerle los deberes hasta políticos que les
encomiendan sus discursos -el representante demócrata Jake Auchincloss estrenó
el recurso en el Congreso de EE.UU.- o fotógrafos que inventan instantáneas de
cosas que no ocurrieron (e incluso ganan premios por ello, como el alemán Boris
Eldagsen, quien obtuvo el primer puesto en el último Sony World Photography
Award por una imagen creada por IA).
Esta misma nota podría haber sido escrita por una máquina y probablemente no te
darías cuenta.
El fenómeno ha llevado a una revolución de los recursos humanos, con empresas
como el gigante tecnológico IBM anunciando que dejará de contratar a
personas para cubrir cerca de 8.000 puestos de trabajo que podrán ser manejados
por IA.
Un informe del banco de inversión Goldman Sachs estimó a finales de marzo que
la IA podría reemplazar a un cuarto de todos los empleos realizados hoy por
humanos, aunque también creará más productividad y nuevos trabajos.
FUENTE DE LA
Y es que, con todos sus impactos, lo que estamos viviendo ahora es apenas la
primera etapa en el desarrollo de la IA.
Según los expertos, lo que podría venir pronto -la segunda etapa- será muchísimo
más revolucionaria.
Y la tercera y última, que podría ocurrir muy poco tiempo después de aquella, es
tan avanzada que alterará completamente al mundo, incluso a costa de la existencia
del ser humano.

Las tres etapas


Las tecnologías de IA se clasifican por su capacidad para imitar las características
humanas.

1. Inteligencia artificial estrecha (ANI)


La categoría más básica de IA es más conocida por sus siglas en inglés: ANI,
por Artificial Narrow Intelligence.
Se llama así porque se enfoca estrechamente en una sola tarea, realizando un
trabajo repetitivo dentro de un rango predefinido por sus creadores.
Los sistemas de ANI generalmente se entrenan utilizando un gran conjunto de datos
(por ejemplo, de internet) y pueden tomar decisiones o realizar acciones basadas
en ese entrenamiento.
Una ANI puede igualar o superar a la inteligencia y eficiencia humana pero solo en
esa área específica en la que opera.
Un ejemplo son los programas de ajedrez que usan IA. Son capaces de vencer al
campeón mundial de esa disciplina, pero no pueden realizar otras tareas.
Las ANI pueden superar a los humanos pero solo en un área específica.
Es por eso que también se la conoce como "IA débil".
Todos los programas y herramientas que utilizan IA hoy, incluso las más avanzadas
y complejas, son formas de ANI. Y estos sistemas están en todas partes.
Los smartphones están llenos de apps que usan esta tecnología, desde los mapas
con GPS que te permiten ubicarte en cualquier lugar del mundo o saber el clima,
hasta los programas de música y videos que conocen tus gustos y te hacen
recomendaciones.
También los asistentes virtuales como Siri y Alexa son formas de ANI. Al igual que
el buscador de Google y el robot que limpia tu casa.
El mundo empresarial también utiliza mucho esta tecnología. Se usa en las
computadoras internas de los autos, en la manufactura de miles de productos, en el
mundo financiero e incluso en hospitales, para realizar diagnósticos.
Incluso sistemas más sofisticados como los autos sin conductor (o vehículos
autónomos) y el popular ChatGPT son formas de ANI, ya que no pueden operar
fuera del rango predefinido por sus programadores, por lo que no pueden tomar
decisiones por su cuenta.
Tampoco tienen autoconciencia, otro rasgo de la inteligencia humana.
Sin embargo, algunos expertos creen que los sistemas que están programados para
aprender automáticamente (machine learning) como ChatGPT o AutoGPT (un
"agente autónomo" o "agente inteligente" que utiliza información del ChatGPT para
realizar ciertas subtareas de forma autónoma) podrían pasar a la siguiente etapa de
desarrollo.
2. Inteligencia artificial general (AGI)

Esta categoría -Artificial General Intelligence- se alcanza cuando una máquina


adquiere capacidades cognitivas a nivel humano.
Es decir, cuando puede realizar cualquier tarea intelectual que realiza una persona.

La AGI tiene la misma capacidad intelectual que un humano.


También se la conoce como "IA fuerte".

Es tal la creencia de que estamos al borde de alcanzar este nivel de desarrollo, que
en marzo pasado más de 1.000 expertos en tecnología pidieron a las empresas de
IA que dejen de entrenar, por al menos seis meses, a aquellos programas que sean
más poderosos que GPT-4, la versión más reciente de ChatGPT.
"Los sistemas de IA con inteligencia que compite con la humana pueden
plantear profundos riesgos para la sociedad y la humanidad", advirtieron en una
carta abierta, entre otros, el cofundador de Apple, Steve Wozniak, y el dueño de
Tesla, SpaceX, Neuralink y Twitter, Elon Musk (quien fue uno de los cofundadores
de Open AI antes de renunciar de la junta por desacuerdos con la conducción de la
compañía).

• La carta en la que más de 1.000 expertos piden frenar la inteligencia


artificial por ser una "amenaza para la humanidad"

En la carta, publicada por la organización sin fines de lucro Future of Life Institute,
los expertos dijeron que si las empresas no acceden rápidamente a frenar sus
proyectos "los gobiernos deberían intervenir e instituir una moratoria" para que
se puedan diseñar e implementar medidas de seguridad sólidas.
Aunque esto es algo que -por el momento- no ha ocurrido, el gobierno de Estados
Unidos sí convocó a los dueños de las principales empresas de IA - Alphabet,
Anthropic, Microsoft, y OpenAI- para acordar "nuevas acciones para promover la
innovación responsable de IA".
"La IA es una de las tecnologías más poderosas de nuestro tiempo, pero para
aprovechar las oportunidades que presenta, primero debemos mitigar sus riesgos",
declaró a través de un comunicado la Casa Blanca el pasado 4 de mayo.
El Congreso de EE.UU., por su parte, convocó este martes al CEO de OpenAI, Sam
Altman, a responder preguntas sobre ChatGPT.
Durante la audiencia en el Senado, Altman dijo que es "crucial" que su industria
sea regulada por el gobierno a medida que la IA se vuelve "cada vez más
poderosa".
Carlos Ignacio Gutiérrez, investigador de políticas públicas en el Future of Life
Institute, explicó a BBC Mundo que uno de los grandes desafíos que presenta la IA
es que "no existe un cuerpo colegiado de expertos que deciden cómo regularlo,
como ocurre, por ejemplo, con el Panel Intergubernamental sobre Cambio Climático
(IPCC)".
En la carta de los expertos, estos definieron cuáles eran sus principales
preocupaciones.
"¿Deberíamos desarrollar mentes no humanas que eventualmente podrían
superarnos en número, ser más inteligentes, hacernos obsoletos y
reemplazarnos?", cuestionaron.
"¿Deberíamos arriesgarnos a perder el control de nuestra civilización?".
FUENTE DE LA IMAGEN,GETTY IMAGES
Pie de foto,
Sam Altman, CEO de OpenAI, creador de ChatGPT, apoyó la regulación gubernamental de
la IA durante una audiencia ante el Congreso.
Lo que nos lleva al tercer y último estadio de la IA.

3. Súper Inteligencia Artificial (ASI)


La preocupación de estos científicos informáticos tiene que ver con una teoría muy
establecida que sostiene que, cuando alcancemos la AGI, poco tiempo después se
arribará al último estadio en el desarollo de esta tecnología: la Artificial
Superintelligence, que ocurre cuando la inteligencia sintética supera a la humana.
El filósofo de la Universidad de Oxford y experto en IA Nick Bostrom define a la
súper inteligencia como "un intelecto que es mucho más inteligente que los mejores
cerebros humanos en prácticamente todos los campos, incluida la creatividad
científica, la sabiduría general y las habilidades sociales".
La teoría es que cuando una máquina logre tener una inteligencia a la par con la
humana, su capacidad de multiplicar esa inteligencia de forma exponencial a
través de su propio aprendizaje autónomo hará que en poco tiempo nos supere
ampliamente, alcanzando la ASI.
"Los humanos para ser ingenieros, enfermeros o abogados debemos estudiar por
muchísimo tiempo. El tema con la AGI es que es escalable de inmediato", señala
Gutiérrez.
Esto es gracias a un proceso llamado superación personal recursiva (recursive self-
improvement) que permite a una aplicación de IA "continuamente mejorarse, en un
tiempo que nosotros no podríamos hacerlo".
Si bien existe mucho debate sobre si una máquina realmente puede adquirir el tipo
de inteligencia amplia que tiene un ser humano -en especial en lo que hace a la
inteligencia emocional-, es una de las cosas que más preocupa a quienes creen que
estamos cerca de lograr la AGI.
Recientemente, el llamado "padrino de la inteligencia artificial" Geoffrey Hinton,
pionero en la investigación de redes neuronales y aprendizaje profundo que
permiten a las máquinas aprender de la experiencia, igual que los humanos, alertó
en una entrevista con la BBC que podríamos estar cerca de ese hito.
"En este momento (las máquinas) no son más inteligentes que nosotros, por lo que
puedo ver. Pero creo que pronto podrían serlo", dijo el hombre de 75 años, quien
acaba de retirarse de Google.

• "En este momento los sistemas de IA no son más inteligentes que nosotros,
pero creo que pronto lo serán" | Entrevista a Geoffrey Hinton, "padrino de la
inteligencia artificial"

Extinción o inmortalidad

Existen, en reglas generales, dos campos de pensamiento con relación a la ASI:


están los que creen que esta superinteligencia será beneficiosa para la humanidad
y los que creen todo lo contrario.
Entre estos últimos estaba el famoso físico británico Stephen Hawking, quien
creía que las máquinas súper inteligentes representaban una amenaza para
nuestra existencia.
FUENTE DE LA IMAGEN,GETTY IMAGES
Pie de foto,
El distinguido físico británico Stephen Hawking creía que la IA súper inteligente podía
llevar al "fin de la raza humana".

"El desarrollo de la inteligencia artificial completa podría significar el fin de la raza


humana", le dijo a la BBC en 2014, cuatro años antes de morir.
Una máquina con este nivel de inteligencia "despegaría por sí sola y se rediseñaría
a un ritmo cada vez mayor", señaló.
"Los humanos, que están limitados por una evolución biológica lenta, no podrían
competir y serían superados", predijo.
Sin embargo, en el bando opuesto creen todo lo contrario.
Uno de los mayores entusiastas de la ASI es el inventor y autor futurista
estadounidense Ray Kurzweil, investigador de IA en Google y cofundador de la
Universidad de la Singularidad en Sillicon Valley (la "singularidad" es otra manera
de llamar a la era en la que las máquinas se tornan súper inteligentes).
Kurzweil cree que los humanos podremos utilizar la IA súper inteligente para
superar nuestras barreras biológicas, mejorando nuestras vidas y nuestro
mundo.
En 2015 incluso predijo que para el año 2030 los humanos lograremos alcanzar la
inmortalidad gracias a nanobots (robots ínfimamente pequeños) que actuarán
dentro de nuestro cuerpo, reparando y curando cualquier daño o enfermedad,
incluyendo el causado por el paso del tiempo.
En su declaración ante el Congreso este martes, Sam Altman, de OpenAI, también
se mostró optimista sobre el potencial de la IA, señalando que podría resolver "los
mayores desafíos de la humanidad, como el cambio climático y la cura del
cáncer".
En el medio están las personas, como Hinton, que creen que la IA tiene enorme
potencial para la humanidad, pero consideran que el ritmo de desarrollo actual, sin
regulaciones y límites claros, es "preocupante".
En una declaración enviada a The New York Times anunciando su salida de Google,
Hinton, dijo que ahora lamentaba el trabajo que había realizado, porque temía que
"malos actores" utilizaran la IA para hacer "cosas malas".

FUENTE DE LA IMAGEN,REUTERS
Pie de foto,
Geoffrey Hinton le dijo a la BBC que los avances en la IA le "dan miedo".
Consultado por la BBC dio este ejemplo de un "escenario de pesadilla":
"Imagina, por ejemplo, que algún mal actor como [el presidente ruso Vladimir]
Putin decidiera dar a los robots la capacidad de crear sus propios subobjetivos".

Las máquinas podrían eventualmente "crear subobjetivos como: 'necesito


obtener más poder'", lo que representaría un "riesgo existencial", señaló.
Al mismo tiempo, el experto británico-canadiense dijo que, en el corto plazo, la IA
brindará muchos más beneficios que riesgos, por lo que "no debemos dejar de
desarrollarla".
"El tema es: ahora que hemos descubierto que funciona mejor de lo que
esperábamos hace unos años ¿qué hacemos para mitigar los riesgos a largo
plazo de que cosas más inteligentes que nosotros tomen el control?".
Guitérrez coincide en que la clave es crear un sistema de gobernanza de la IA
antes de que se desarrolle una inteligencia que puede tomar decisiones propias.
"¿Si se crean estos entes que tienen su propia motivación, qué significa cuando
nosotros ya no estamos en control de esas motivaciones?", plantea.
El experto señala que el peligro no es solo que una AGI o ASI, ya sea por motivación
propia o controlada por personas con "objetivos malos", inicie una guerra o manipule
el sistema financiero, productivo, la infraestructura energética, de transporte o
cualquier otro sistema que hoy está computarizado.
Una superinteligencia podría dominarnos de una manera mucho más sutil,
advierte.
"Imagínate un futuro en que un ente tenga tanta información sobre cada persona en
el planeta y sus hábitos (gracias a nuestras búsquedas en internet) que nos podría
controlar de una manera que no nos daríamos cuenta", afirma.
"El peor escenario no es que haya guerras de humanos contra robots. Lo peor
es que no nos demos cuenta de que estamos siendo manipulados porque
estamos compartiendo el planeta con un ente que es mucho más inteligente que
nosotros".

También podría gustarte