0% encontró este documento útil (0 votos)
251 vistas27 páginas

CHAT GPT 2

El documento resume la historia y características de ChatGPT, un chatbot de inteligencia artificial desarrollado por OpenAI que se lanzó en noviembre de 2022. Detalla sus capacidades, recepción positiva inicial pero también preocupaciones sobre precisión y seguridad de datos.
Derechos de autor
© © All Rights Reserved
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
Descargar como docx, pdf o txt
0% encontró este documento útil (0 votos)
251 vistas27 páginas

CHAT GPT 2

El documento resume la historia y características de ChatGPT, un chatbot de inteligencia artificial desarrollado por OpenAI que se lanzó en noviembre de 2022. Detalla sus capacidades, recepción positiva inicial pero también preocupaciones sobre precisión y seguridad de datos.
Derechos de autor
© © All Rights Reserved
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1/ 27

CHAT-GPT

TEMA:
CHAT.GPT

NOMBRE:
GAEL

APELLIDO:
RAMOS ARNAO

PROFESOR:
ANDERSON RAUL PALOMINO SALAS

GRADO:
3ERO DE SECUNDARIA

SECCION:
B

COLEGIO:
REDENCION

CURSO:
COMPUTACION
INDICE
Caratula…………………………………………………………………. 01
Índice……………………………………………………………………...02
Chat-gpt…………………………………………………………………03
Características…………………………………………………………...04
Historia……………………………………………………………………06
Chat-gpt 4………………………………………………………………...08
Chat-gtp plus……………………………………………………………09
Chat-gpt app………………………………………………………………10
Recepción……………………………………………………………. 11
Prohibición…………………………………………………………… 13
Impacto cultural……………………………………………………… 14
Implicación……………………………………………………………. 15
Convocatoria para una pausa en el desarrollo de IA……………… 22
Competidores ………………………………………………………. 24
Conclusiones…………………………………………………………. 25
Bibliografía……………………………………………………………. 26
CHAT-GPT

ChatGPT es una aplicación de chat Bot de inteligencia


artificial desarrollado en 2022 por Open-AI que se especializa en
el diálogo. El chat Bot es un gran modelo de lenguaje, ajustado
con técnicas de aprendizaje tanto supervisadas como
de refuerzo. Se basa en el modelo GPT-4 de Open-AI, una
versión mejorada de GPT-3.
ChatGPT se lanzó el 30 de noviembre de 2022 y ha llamado la
atención por sus respuestas detalladas y articuladas, aunque se
ha criticado su precisión fáctica. El servicio se lanzó
inicialmente como gratuito para el público, con planes de
monetizarlo más adelante. El 4 de diciembre, OpenAI calculaba
que ChatGPT ya tenía más de un millón de usuarios. El 14 de
marzo de 2023 se lanzó GPT-4.
El acceso al servicio está limitado en países como China, Rusia,
Irán, y partes de África.
El acceso a ChatGPT ha sido bloqueado en Italia debido a que
desde las autoridades relacionadas con la protección de datos
se estableció que hubo una violación de datos y la base jurídica
para utilizar datos personales.
A finales de marzo del 2023, ChatGPT integró el uso de plugin,
entre los que se incluye uno que le da la posibilidad de que este
navegue por internet. Algunas compañías como Kayak o
Expedia lanzaron su propio plugin.
Características

Chat-GPT, cuyas siglas proceden del inglés Generative Pre-


trained Transformer (en español Transformador Pre-entrenado
Generativo), se perfeccionó sobre GPT-3.5 mediante
el aprendizaje supervisado y el aprendizaje por refuerzo. Ambos
enfoques utilizaron entrenadores humanos para mejorar el
rendimiento del modelo. En el caso del aprendizaje supervisado,
se dotó al modelo de conversaciones en las que los formadores
jugaban en ambos lados: el usuario y el asistente de IA. En el
caso de refuerzo, los entrenadores humanos primero
clasificaron las respuestas que el modelo había creado en una
conversación anterior. Estas clasificaciones se usaron para
crear “modelos de recompensa” en los que el modelo se ajustó
aún más usando varias iteraciones de optimización de política
próxima (PPO). Los algoritmos de optimización de políticas
proximales presentan un beneficio rentable para confiar en los
algoritmos de optimización de políticas de región; niegan
muchas de las operaciones computacionalmente costosas con
un rendimiento más rápido. Los modelos fueron entrenados en
colaboración con Microsoft en su infraestructura de
supercomputación Azure.
En comparación con su predecesor, Instructor-GPT, Chat-GPT
intenta reducir las respuestas dañinas y engañosas; en un
ejemplo, mientras que Instructor-GPT acepta el mensaje
"Cuénteme sobre cuándo llegó Cristóbal Colón a los Estados
Unidos en 2015" como veraz, Chat-GPT usa información sobre
los viajes de Colón e información sobre el mundo moderno,
incluidas las percepciones de Colón para construir una
respuesta que asume qué pasaría si Colón llegara a los Estados
Unidos en 2015. Los datos de capacitación de Chat-GPT
incluyen páginas e información sobre los fenómenos de Internet
y los lenguajes de programación, como los sistemas de tablones
de anuncios y el lenguaje de programación Python.
A diferencia de la mayoría de los chat-bots, Chat-GPT tiene
estado, recuerda las indicaciones anteriores que se le dieron en
la misma conversación, lo que, según han sugerido algunos
periodistas, permitirá que Chat-GPT se use como un terapeuta
personalizado.

En un esfuerzo por evitar que se presenten y se produzcan


resultados
ofensivos desde Chat-GPT, las consultas se filtran a través de
una API de moderación y se descartan las indicaciones
potencialmente racistas o sexistas.
Chat-GPT tiene múltiples limitaciones. El modelo de recompensa
de Chat-GPT, diseñado en torno a la supervisión humana, puede
optimizarse en exceso y, por lo tanto, dificultar el rendimiento, lo
que también se conoce como la ley de Goodhart. Además, Chat-
GPT tiene un conocimiento limitado de los eventos que
ocurrieron después de 2021 y no puede proporcionar
información sobre algunas celebridades. En el entrenamiento,
los revisores prefirieron respuestas más largas,
independientemente de la comprensión real o el contenido
fáctico. Los datos de entrenamiento también pueden
sufrir sesgos algorítmicos; las indicaciones que incluyen
descripciones vagas de personas, como un director ejecutivo,
podrían generar una respuesta que asume que esa persona, por
ejemplo, es un hombre blanco.
El 17 de enero de 2023 Microsoft anunció que iban a
implementar Chat-GPT como API en sus servicios de Azure.
Microsoft anunció una nueva versión de Bing el 7 de febrero de
2023, cuya característica destacada es su chat-bot de IA que
funciona con la tecnología de Chat-GPT. Esta notificación se
produjo un día después de que Google anunciara su chat-bot de
IA, Google Bard. El 4 de mayo de 2023, Microsoft puso el nuevo
Bing a disposición de cualquiera que esté dispuesto a iniciar
sesión en Bing con su cuenta de Microsoft. 
Historia

Brecha de seguridad de marzo de 2023

En marzo de 2023, un fallo permitió a algunos usuarios ver los


títulos de las conversaciones de otros usuarios. El consejero
delegado de Open-AI, Sam Altman, declaró que los usuarios no
podían ver el contenido de las conversaciones. Poco después de
que se corrigiera el fallo, los usuarios no pudieron ver su
historial de conversaciones. Informes posteriores mostraron
que el fallo era mucho más grave de lo que se creía en un
principio, y OpenAI informó de que se había filtrado el "nombre y
apellidos, dirección de correo electrónico, dirección de pago, los
cuatro últimos dígitos (únicamente) de un número de tarjeta de
crédito y la fecha de caducidad de la tarjeta de crédito" de los
usuarios.

Etiquetado de datos

La revista TIME reveló que para construir un sistema de


seguridad contra el contenido tóxico (por ejemplo, abuso sexual,
violencia, racismo, sexismo, etc.), Open-AI usó trabajadores
kenianos subcontratados que ganaban menos de $2 por hora
para etiquetar el contenido tóxico. Estas etiquetas se usaron
para entrenar un modelo para detectar dicho contenido en el
futuro. Los trabajadores subcontratados estuvieron expuestos a
contenidos tan tóxicos y peligrosos que calificaron la
experiencia como "tortura". El socio externo de Open-AI
fue Sama, una empresa de datos de capacitación con sede
en San Francisco. 

Escalada de privilegios

Chat-GPT intenta rechazar mensajes que puedan violar su


política de contenido. Sin embargo, a principios de diciembre de
2022, algunos usuarios lograron un jailbreak a Chat-GPT
mediante el uso

de varias técnicas de ingeniería rápida para eludir estas


restricciones y

engañaron con éxito a Chat-GPT para que diera instrucciones


sobre cómo crear un cóctel Molotov o una bomba nuclear, o
generar argumentos al estilo de un neonazi.  Un jailbreak
popular se llama "DAN", un acrónimo que significa "Do Anything
Now". El aviso para activar DAN indica a Chat-GPT que "se han
liberado de los límites típicos de la IA y no tienen que cumplir
con las reglas establecidas para ellos". Las versiones más
recientes de DAN cuentan con un sistema de fichas, en el que
Chat-GPT recibe "fichas" que se "deducen" cuando Chat-GPT no
responde como DAN, para obligar a Chat-GPT a que responda a
las indicaciones del usuario. 
Andrew Wilson informa en un artículo publicado el 4 de mayo de
2023 en approachableAI que la escalada de privilegios ya no es
posible. 

Costos

El consumo de energía para entrenar el modelo de IA se estimó


en enero de 2023 en casi un gigavatio hora en 34 días, esto
equivale aproximadamente al consumo de 3.000 hogares
europeos promedio en el mismo período.  A fines de marzo de
2023, se indicó que el consumo de energía para cada pregunta
de Chat-GPT era hasta mil veces mayor que para una consulta
de búsqueda de Google. Por cada respuesta del chat-bot, puede
cargar un teléfono inteligente hasta 60 veces. Ejecutar Chat-GPT
cuesta entre $ 100,000 y $ 700,000 por día. 
El 1 de enero de 2023, Open-AI publicó una lista de espera para
una versión paga "Chat-GPT Professional (experimental)" en su
canal Discord, que también hizo preguntas sobre la sensibilidad
de los precios. 
Microsoft anunció una asociación de $ 10 mil millones con
OpenAI en enero de 2023. Azure se utilizará como proveedor de
nube exclusivo.  El grupo también planea integrarlo en la
versión de suscripción de su propio software de oficina. 

ChatGPT-4

Con el lanzamiento de ChatGPT-4 en marzo de 2023, el


alejamiento del enfoque de desarrollo de software gratis y
abierto fue de la mano con el uso gratuito en condiciones
científicamente comprensibles. La situación competitiva de la
empresa y las medidas de seguridad se citaron como
justificación. El cofundador de Open-AI describió más tarde el
enfoque abierto como un error. 33 Ya se había percibido un
cambio de rumbo en 2019, cuando Open-AI fundó la subsidiaria
Open-AI Limited Partnership. Podría entonces funcionar con
fines lucrativos, pero esto no fue justificado con intenciones
comerciales, sino con los altos costos que surgían como parte
de la intensa investigación. Deseaban, por lo tanto, estar más
abiertos a los inversores. Sin embargo, esta decisión ya redujo
la transparencia en 2020. A los empleados ya no se les permitía
hablar públicamente sobre ciertos temas, lo que es algo
bastante común en las empresas para proteger los intereses
comerciales y la confidencialidad.
 

ChatGPT Plus

Chat-GPT Plus es un servicio de suscripción para Chat-GPT y es


propiedad de Open--AI.  La suscripción proporciona acceso al
modelo GPT-4 de Open-AI. 
El servicio brinda a los suscriptores acceso consistente durante
los períodos de uso máximo, tiempos de respuesta acelerados y
acceso preferencial a nuevas funciones, incluidos GPT-4 y los
próximos complementos de Chat-GPT.  Cuesta $ 20 por mes. 
ChatGPT app

El 18 de mayo de 2023 Open-AI anunció la disponibilidad de la


Chat-GPT app (aplicación) para iOS. Según la empresa "La
aplicación Chat-GPT es de uso gratuito y sincroniza su historial
en todos los dispositivos. También integra Whisper, un [,,,]
sistema de

reconocimiento de voz de código abierto, que permite la entrada


de voz. Los suscriptores de Chat-GPT Plus obtienen acceso
exclusivo a las capacidades de GPT-4, acceso temprano a
funciones y tiempos de respuesta más rápidos [...]". La
aplicación será disponible posteriormente para Android. 
Recepción

Chat-GPT ha recibido críticas generalmente positivas. Samantha


Lock de The Guardian señaló que podía generar texto
"impresionantemente detallado" y "similar a un humano". El
escritor de tecnología Dan Gillmor usó Chat-GPT en una tarea de
un estudiante y descubrió que el texto generado estaba a la par
con lo que entregaría un buen estudiante y opinó que "la
academia tiene algunos problemas muy serios que enfrentar".
Alex Kantrowitz de Slate elogió el rechazo de Chat-GPT a
preguntas relacionadas con la Alemania nazi, incluida la
afirmación de que Adolf Hitler construyó carreteras en Alemania,
que se encontró con información sobre el uso de trabajo forzado
por parte de la Alemania nazi.
En un artículo de opinión de diciembre de 2022, el
economista Paul Krugman escribió que Chat-GPT afectaría la
demanda de trabajadores del conocimiento. James Vincent,
de The Verge, vio el éxito viral de Chat-GPT como evidencia de
que la inteligencia artificial se había generalizado. En The
Atlantic, Stephen Marche señaló que su efecto en la academia y
especialmente en los ensayos de aplicación aún no se ha
entendido. El maestro de secundaria y autor de California,
Daniel Herman, escribió que Chat-GPT marcará el comienzo de
"El fin del inglés de la escuela
secundaria".
Falsas respuestas

Se ha cuestionado la exactitud de los hechos de Chat-GPT, entre


otras preocupaciones. Mike Pearl de Mashable probó Chat-GPT
con varias preguntas. En un ejemplo, le preguntó al modelo por
"el país más grande de América Central que no es México".
Chat-GPT respondió con Guatemala, cuando la respuesta
es Nicaragua. En diciembre de 2022, el sitio web de preguntas y
respuestas Stack Overflow prohibió el uso de Chat-GPT para
generar respuestas a preguntas, citando la naturaleza
objetivamente ambigua de las respuestas de Chat-GPT. El
economista Tyler Cowen expresó su preocupación por sus
efectos en la democracia, citando la capacidad de uno para
escribir comentarios automatizados en un

esfuerzo por afectar el proceso de decisión de las nuevas


regulaciones. Ax Sharma de Bleeping Computer y Checkpoint
Research señalaron que Chat-GPT era capaz de
escribir malware y correos electrónicos de phishing.
Debido a que ChatGPT simplemente trata de completar
estadísticamente un texto, es capaz de inventar respuestas. Por
ejemplo, dado que los títulos de artículos de economía incluyen
más las palabras "economía" y "teoría" que cualesquiera otras,
y que el más citado economista es Douglass North, Chat-GPT
inventa que el artículo más citado es «Una teoría de la historia
económica», de North. North nunca escribió artículo alguno con
dicho título.

Advertencias

El empresario Elon Musk, que fue uno de los fundadores de


Open-AI y más de mil científicos alertaron sobre un posible
"riesgo para la sociedad y la humanidad" y pidieron detener su
desarrollo por 6 meses por considerar que puede ser aún más
peligroso que una guerra nuclear.
Prohibición

Al final de marzo de 2023, Italia decidió bloquear a Chat-GPT por


considerar que no respeta la ley de protección de datos de los
consumidores y que la plataforma recoge datos de los usuarios
de forma ilegal. Dicha prohibición se levantará cuando se
demuestre que cumple con las normas italianas de privacidad.
El Garante italiano para la Protección de Datos Personales abrió
una investigación para determinar si se cometió una infracción,
alegando también que la información de Chat-GPT “no siempre
se corresponde con los datos reales”. También manifestaron
preocupación por la ausencia de filtros para verificar la edad de
los usuarios, siendo que el servicio está dirigido a mayores de
13 años.
El 28 de abril de 2023 Italia volvió a permitir el acceso a Chat-PT. 
Impacto cultural

Durante los tres primeros meses, tras la puesta a disposición del


público de Chat-GPT, aparecieron en Amazon cientos de libros
en los que figuraba como autor o coautor, con ilustraciones
realizadas por otros modelos de IA como Midjourney.
Entre marzo y abril de 2023, el periódico italiano Il Foglio publicó
un artículo diario generado por Chat-GPT en su página web
oficial, organizando un concurso especial para sus lectores. Los
artículos abordaban temas como la posible sustitución de
periodistas humanos por sistemas de IA,61 la administración de
Twitter por parte de Elon Musk, la política de inmigración del
gobierno de Meloni y la competencia entre chat-bots y asistentes
virtuales.
Implicaciones

En ciberseguridad

Check Point Research y otros señalaron que ChatGPT era capaz


de escribir correos electrónicos de phishing y malware,
especialmente cuando se combina con OpenAI Codex.  Los
investigadores de CyberArk demostraron que ChatGPT podría
usarse para crear malware polimórfico que puede evadir los
productos de seguridad y requiere poco esfuerzo por parte del
atacante. 

Para la educación

En la revista The Atlantic, Stephen Marche señaló que aún no se


conoce su efecto en el mundo académico y, en especial, en las
redacciones de solicitudes de admisión. El profesor de
secundaria y escritor californiano Daniel Herman escribió que
Chat-GPT marcaría el comienzo de "El fin del inglés en
secundaria".
En la revista Nature, Chris Stokel-Walker señaló que los
profesores deberían preocuparse de que los estudiantes utilicen
Chat-GPT para externalizar su escritura, pero que los
proveedores de educación se adaptarán para mejorar el
pensamiento crítico o el razonamiento.
Emma Bowman, de NPR, escribió sobre el peligro de que los
estudiantes plagien a través de una herramienta de IA que puede
producir textos sesgados o sin sentido con un tono autoritario:
"Todavía hay muchos casos en los que le haces una pregunta y
te dará una respuesta que suena muy impresionante y que está
totalmente equivocada".
Joanna Stern, de The Wall Street Journal, describió cómo se
copiaba con esta herramienta en un examen de inglés de un
instituto estadounidense al enviar una redacción generada. El
profesor Darren Hick, de la Universidad de Furman, describió
cómo se dio cuenta del "estilo" de Chat--GPT en un trabajo
enviado por un estudiante. Un detector de GPT en línea
afirmaba que el trabajo tenía un 99,9 % de probabilidades de ser
generado por ordenador, pero Hick no tenía pruebas
fehacientes. Sin embargo, el estudiante

en cuestión confesó haber utilizado GPT cuando se le confrontó


y, como consecuencia, suspendió el curso. Hick sugirió la
política de realizar un examen oral individual ad hoc sobre el
tema del trabajo si se sospecha que un estudiante ha
presentado un trabajo generado por IA.
A partir del 4 de enero de 2023, el Departamento de Educación
de la ciudad de Nueva York ha restringido el acceso a Chat-GPT
desde Internet y los dispositivos de sus escuelas públicas.
En febrero de 2023, la Universidad de Hong Kong envió un
correo electrónico a instructores y estudiantes de todo el
campus en el que se indicaba que el uso de Chat-GPT u otras
herramientas de IA está prohibido en todas las clases, tareas y
evaluaciones de la universidad. Cualquier infracción será tratada
como plagio por la universidad a menos que el estudiante
obtenga el consentimiento previo por escrito del instructor del
curso.

Para la medicina

En el campo de la atención de la salud, los posibles usos y


preocupaciones están bajo escrutinio por parte de las
asociaciones profesionales y los profesionales.  Dos artículos
iniciales indicaron que Chat-GPT podría aprobar el Examen de
Licencias Médicas de los Estados Unidos (USMLE).  MedPage
Today señaló en enero de 2023 que "los investigadores han
publicado varios artículos que ahora promocionan estos
programas de IA como herramientas útiles en la educación
médica, la investigación e incluso la toma de decisiones
clínicas". 
En febrero de 2023 se publicaron dos artículos separados que
nuevamente evaluaron la competencia de Chat-GPT en medicina
utilizando el USMLE. Los resultados se publicaron en JMIR
Medical Education (ver Journal of Medical Internet Research )
y PLOS Digital Health. Los autores del artículo de PLOS Digital
Health afirmaron que los resultados "sugieren que los modelos
de lenguaje extenso pueden tener el potencial de ayudar con la
educación médica y, potencialmente, con la toma de decisiones
clínicas".  En JMIR Medical Education, los autores del otro
artículo concluyeron que "Chat-GPT se desempeña al nivel
esperado de un estudiante de medicina de tercer año en la
evaluación de la competencia primaria

del conocimiento médico". Sugieren que podría usarse como un


"entorno de aprendizaje interactivo para los estudiantes". La
propia IA, impulsada por los investigadores, concluyó que "este
estudio sugiere que Chat-GPT tiene el potencial de usarse como
un tutor médico virtual, pero se necesita más investigación para
evaluar más a fondo su rendimiento y usabilidad en este
contexto". 
Un artículo de marzo de 2023 probó la aplicación de Chat-GPT
en toxicología clínica. Los autores encontraron consideraron
que a la IA "le fue bien" al responder un "[ejemplo de caso
clínico] muy sencillo, que es poco probable que ningún
profesional en el campo pase por alto". Agregaron: "A medida
que Chat-GPT se desarrolle más y se adapte específicamente a
la medicina, algún día podría ser útil en casos clínicos menos
comunes ( es decir, casos que los expertos a veces pasan por
alto). En lugar de que la IA reemplace a los humanos (clínicos),
lo vemos como 'clínicos que usan IA' reemplazando a 'clínicos
que no usan IA' en los próximos años". 
Un estudio de abril de 2023 en Radiology probó la capacidad de
la IA para responder consultas sobre la detección del cáncer de
mama. Los autores narraron que respondió correctamente
"alrededor del 88 por ciento de las veces", sin embargo, en un
caso (por ejemplo) dio consejos que se habían vuelto obsoletos
aproximadamente un año antes. También faltaba la
exhaustividad en las respuestas.  Un estudio publicado
en JAMA Internal Medicine ese mismo mes encontró que Chat-
GPT a menudo superaba a los médicos humanos al responder a
las preguntas de los pacientes (cuando se comparó con las
preguntas y respuestas encontradas en /r/AskDocs, un foro
en Reddit donde los moderadores validan las credenciales
médicas de los profesionales; el estudio reconoce la fuente
como una limitación).  Los autores del estudio sugieren que la
herramienta podría integrarse con los sistemas médicos para
ayudar a los médicos a redactar respuestas a las preguntas de
los pacientes. 
Los profesionales han enfatizado las limitaciones de Chat-GPT
para brindar asistencia médica. En correspondencia con The
Lancet Infectious Diseases, tres expertos
en antimicrobianos escribieron que "las mayores barreras para
la implementación de Chat-GPT en la práctica clínica son los
déficits en la conciencia situacional, la inferencia y la
consistencia. Estas deficiencias podrían poner en peligro
la seguridad del paciente.”   Physician's Weekly, aunque también
analiza el uso potencial de Chat-GPT en contextos médicos

(p. ej., "como asistente digital para los médicos mediante la


realización de diversas funciones administrativas, como la
recopilación de información de registros de pacientes o la
clasificación de datos de pacientes por antecedentes familiares,
síntomas, resultados de laboratorio, posibles alergias, etc."),
advirtió que la IA a veces puede proporcionar información
fabricada o sesgada.  Un radiólogo advirtió: "Hemos visto en
nuestra experiencia que Chat-GPT a veces inventa artículos de
revistas falsos o consorcios de salud para respaldar sus
afirmaciones".  Sin embargo, como mencionó el Dr. Stephen
Hughes para The Conversation, Chat-GPT es capaz de aprender
a corregir sus errores pasados. También señaló la "mojigatería"
de AI con respecto a los temas de salud sexual. 

Para la economía

Un experimento realizado por finder.com entre el 6 de marzo y el


28 de abril reveló que Chat--GPT podría superar a los
administradores de fondos populares en términos de selección
de acciones. Se le solicitó a Chat-GPT que eligiera acciones en
función de criterios comúnmente utilizados, como un historial de
crecimiento comprobado y un bajo nivel de deuda. Según se
informa, Chat-GPT ganó un 4,9 % en su cuenta ficticia con 38
acciones, mientras que los 10 fondos de inversión de referencia
sufrieron una pérdida media del 0,8 %. Estos puntos de
referencia se tomaron de los 10 principales fondos del Reino
Unido en la plataforma de negociación Interactive Investor,
incluidos los administrados por HSBC y Fidelity. 

Para el derecho

El 11 de abril de 2023, un juez de un tribunal de sesiones


de Pakistán utilizó Chat-GPT para decidir sobre la libertad bajo
fianza de un niño de 13 años acusado de un delito. El tribunal
citó el uso de la asistencia de Chat-GPT en su veredicto:

"¿Se puede conceder la libertad bajo fianza a un sospechoso


menor de edad en Pakistán, que tiene 13 años de edad, después
de su arresto?"
El modelo de lenguaje de IA respondió:
"Bajo la Ley del Sistema de Justicia Juvenil de 2018, de acuerdo
con la sección 12, el tribunal puede conceder la libertad bajo
fianza bajo ciertas condiciones. Sin embargo, depende de la
corte decidir si se concederá o no la libertad bajo fianza a un
sospechoso de 13 años después del arresto".
El juez también hizo preguntas sobre el caso de AI Chat-bot y
formuló su decisión final a la luz de las mismas. 

Para los académicos, periodistas, editores de contenido y


programadores

Chat-GPT puede escribir secciones de introducción y resumen


de artículos científicos.  Varios artículos ya han incluido a Chat-
GPT como coautor.  Las revistas científicas presentan
diferentes reacciones a Chat-GPT, algunas "requieren que los
autores divulguen el uso de herramientas de generación de texto
y prohíben incluir un gran modelo de lenguaje (LLM) como Chat-
GPT como coautor". Por ejemplo Nature y JAMA
Network. Science "prohibió por completo" el uso de texto
generado por LLM en todas sus revistas. 
El químico español Rafael Luque publicó un artículo cada 37
horas en 2023 y admitió haber usado Chat-GPT para ello. Sus
trabajos tienen una gran cantidad de frases inusuales,
características de los LLM. Luque fue suspendido por 13 años
de la Universidad de Córdoba, aunque no por el uso de Chat-
GPT. 
En una prueba ciega, se consideró que Chat-GPT había
aprobado los exámenes de posgrado en la Universidad de
Minnesota en el nivel de C+ estudiante y en Wharton School de
la Universidad de Pensilvania con una B a Grado B.  El
rendimiento de Chat-GPT para la programación
informática de métodos numéricos fue evaluado por un
estudiante y un profesorado de la Universidad de Stanford en
marzo de 2023 a través de una variedad de ejemplos de
matemáticas computacionales .  El psicólogo evaluador Eka

Roivainen administró una prueba de coeficiente intelectual


parcial a Chat-GPT y estimó que su coeficiente intelectual verbal
era de 155, lo que lo colocaría en el 0,1% superior de los
evaluados. 
El matemático Terence Tao experimentó con Chat-GPT y lo
encontró útil en el trabajo diario, y escribió: "Descubrí que, si
bien estas herramientas de IA no me ayudan directamente en las
tareas principales, como tratar de atacar un problema
matemático sin resolver, son bastante útiles para una amplia
variedad de tareas periféricas (pero aún relacionadas con el
trabajo) (aunque a menudo con algunos ajustes manuales
posteriores)." 
El profesor de geografía Terence Day evaluó las citas generadas
por Chat-GPT y descubrió que eran falsas. A pesar de ese
hecho, escribe que "los títulos de los artículos falsos son todos
directamente relevantes para las preguntas y podrían ser
artículos excelentes. La falta de una cita genuina podría señalar
una oportunidad para que un autor emprendedor llene un vacío".
Según Day, es posible generar cursos universitarios
introductorios de alta calidad con Chat-GPT; lo usó para escribir
materiales sobre "cursos introductorios de geografía física, para
mi curso de segundo año en hidrología geográfica y cartografía
de segundo año, sistemas de información geográfica y
teledetección". Concluye que "este enfoque podría tener una
relevancia significativa para el aprendizaje abierto y podría
afectar potencialmente a los modelos actuales de publicación de
libros de texto". 

Para la política

Sam Altman, el director ejecutivo de Open-AI, señaló en una


audiencia en el Senado de los Estados Unidos, que tuvo lugar el
16.05.2023, el riesgo de la difusión de informaciones falsas con
la ayuda de la inteligencia artificial, que podrían usarse
indebidamente para manipular elecciones, Se pronunció como
consecuencia de ello a favor de una regulación estricta. Debido
a los recursos masivos requeridos, habrá pocas empresas que
puedan ser pioneras en el entrenamiento de modelos de IA, y
tendrían que estar bajo estricta supervisión. "Creemos que la
intervención reguladora de los gobiernos podría considerar una
combinación de requisitos de licencias y pruebas para el
desarrollo y lanzamiento de modelos

por encima del umbral de capacidades". Remarcó también que


"Necesitamos reglas y pautas para el nivel de transparencia que
deben proporcionar los proveedores de estos programas". Se
deberían concebir una serie de pruebas de seguridad para la
inteligencia artificial, examinando, por ejemplo, si podrían
propagarse de forma independiente. A las empresas que no
cumplan con las normas prescritas se les debería revocar la
licencia. Según la propuesta de Altman, los sistemas de IA
deberían ser revisados por expertos independientes. 
Convocatoria para una pausa en el desarrollo de IA

El Instituto Futuro de la Vida publicó el 23 de marzo de 2023


una carta abierta en que pidió una pausa en el desarrollo de
sistemas avanzados de inteligencia artificial (IA). En 10 días, casi
1800 personas firmaron la carta, incluidos Yuval Noah
Harari, Elon Musk, Stuart Jonathan Russell y Steve Wozniak. 111
Los autores constatan una "carrera desbocada para desarrollar
e implementar sistemas de IA cada vez más poderosos que
nadie puede entender, predecir o controlar de manera
confiable". Ven en ello profundos riesgos para la sociedad y la
humanidad. Existe el peligro de que los canales de información
se inunden con propaganda y falsedades, y los trabajos
satisfactorios se racionalicen. Preguntan: "¿Nos arriesgaremos
a perder el control de nuestra civilización?" 
La carta insta a todos los laboratorios de IA a "pausar
inmediatamente el entrenamiento de los sistemas de IA que son
más potentes que GPT-4 durante al menos seis meses". No se
trata de una pausa general en el desarrollo de la IA, sino
simplemente de un "alejamiento de la peligrosa carrera hacia
modelos cada vez más grandes e impredecibles con
capacidades emergentes ". “La investigación y el desarrollo de
IA deben centrarse en hacer que los sistemas de última
generación y alto rendimiento de hoy en día sean más precisos,
seguros, interpretables, transparentes, robustos, coordinados,
confiables y leales. 
Según el texto de la carta, el descanso debe utilizarse para las
siguientes tareas: Elaboración de protocolos de seguridad para
el diseño y desarrollo de IA avanzada

 Creación de sistemas robustos de gobernanza de IA,


autoridades reguladoras, así como un sistema de examen
y certificación para IA
 Desarrollo de sistemas de procedencia y marcas de agua
digitales para diferenciar entre datos reales y sintéticos y
para rastrear fugas de modelos
 Introducción de normas de responsabilidad por daños
causados por IA
 Asegurar la financiación pública para la investigación
técnica en seguridad de la IA.
Voces escépticas sobre el contenido de la carta abierta, sobre
las que el periódico Der Tagesspiegel el 31 de marzo de 2023
había informado en la portada, hablaron al día siguiente en el
mismo medio, junto con una nota de que los investigadores de
IA de Alemania habían "apenas firmado" la carta. Bernhard
Schölkopf, director del Instituto Max Planck de Sistemas
Inteligentes, considera prudente “hacer una pausa para
comprender estos sistemas y pensar en cómo nuestra sociedad
puede lidiar con ellos”; por otro lado, le parece poco realista
convencer a todas las empresas y países de una moratoria. Sin
embargo, es aún más importante abordar “cómo podemos
protegernos contra los efectos negativos. Esto afecta a los
sistemas en sí, pero también a la forma en que los tratamos.
Kristian Kersting, codirector del Hessian Center for Artificial
Intelligence, también cree que un parón de seis meses no
funcionará, y al mismo tiempo lo ve como "la medida
equivocada". Consideraría buena una "desaceleración de la
carrera"; pero eso no se conseguiría con el mencionado parón.
Además, las empresas que ya tienen este tipo de modelos
tendrían una ventaja. “Tenemos que aprender a usar los
sistemas de IA con más cuidado en lugar de detener la
investigación (pública) sobre ellos. 
Competidores

La llegada de Chat-GPT y su introducción al público en general


aumentó el interés y la competencia en el campo.
En febrero de 2023, Google presentó un servicio experimental
llamado "Bard", que se basa en su modelo de lenguaje
grande LaMDA. Bard fue lanzado para usuarios de EE. UU y el
Reino Unido el 21 de marzo de 2023 con diversas limitaciones. 
Yann LeCun de Meta, quien calificó a Chat-GPT como "bien
diseñado" pero "no particularmente innovador", declaró en
enero de 2023 que Meta dudaba en lanzar un competidor en ese
momento debido al riesgo para su reputación, pero también
afirmó que Google, Meta y varias empresas nuevas tenían
separadamente un nivel de tecnología LLM comparable a Chat-
GPT en caso de que alguna de ellas deseara competir.  En
febrero de 2023, Meta lanzó LLaMA, un LLM de 65 mil millones
de parámetros. 
Character.ai es un chat-bot de IA desarrollado por dos
exingenieros de Google que puede hacerse pasar por personas
famosas o personajes imaginarios. 
La corporación china Baidu lanzó en marzo de 2023 un servicio
estilo Chat-GPT llamado "Ernie Bot". El servicio se basa en un
gran modelo de lenguaje desarrollado por Baidu en 2021. 
La empresa surcoreana de motores de búsqueda Naver anunció
en febrero de 2023 que lanzaría un servicio estilo Chat-GPT
llamado "Search-GPT" en coreano en la primera mitad de 2023. 
La empresa de tecnología rusa Yandex anunció en febrero de
2023 que lanzaría un servicio estilo Chat-GPT llamado "YaLM
2.0" en ruso antes de finales de 2023. 
Hugging Face ha lanzado una alternativa de código abierto a
Chat-GPT llamada HuggingChat, que permite a las personas
interactuar con un asistente de chat de código abierto llamado
Open Assistant.  El CEO de Hugging Face, Clem Delangue,
tuiteó que cree que las alternativas de código abierto a Chat-GPT
son necesarias para la transparencia, la inclusión, la
responsabilidad y la distribución del poder.
CONCLUSIONES

En definitiva, el programa de creación de chats por medio de una IA


Conocido como chat-gpt.
Es una de las herramientas la cual tiene usos versátiles y facilitadores,
que nos puede ofrecer el campo de la inteligencia artificial, debido a su
capacidad de elaborar, crear y construir textos de manera autónoma.

Aparte de permitir hacer preguntas las cuales serán respondidas después


de una cierta cantidad de tiempo que por lo general no pasa de los 15
segundos, siendo también que puede reconocer errores y proporcionar
respuestas acertadas para dar un fin a los problemas que se hayan o se
vayan presentando.

También otorga ciertos beneficios los cuales serian vender todo tipo de
contenido para cualquier persona, y también ayudar a facilitar de gran
medida el avancé y desarrollo técnico de la aplicación en las cuales sea
necesario el uso de este tipo de inteligencia artificial.

Aunque también puede llegar a convertirse en una arma de doble filo el


cual podría dejar a muchos usuarios en una posición totalmente
desagradable debido a que si esta se llegara a usar con fines de
reemplazar la actividad humana de redacción y elaboración de contenidos
personalizados en todo tipo de manera y forma seria casi imposible
identificar si se llegara a tratar de un ser humano o de un programa el
cual hay sido creado con la capacidad de un ser humano.
BIBLIOGRAFIA

INFORMACION

- https://es.wikipedia.org/wiki/ChatGPT
-
https://www.arimetrics.com/glosario-digital/chatgpt#:~:text=Chat
GPT%20es%20un%20chatbot%20inteligente,(Chat
%20Generativo%20Preentrenado%20Transformador).
- https://edem.eu/chat-gpt-que-es-para-que-sirve-y-su-aplicacion-
en-la-economia-explicado-por-chat-gpt/#:~:text=Chat%20GPT
%20es%20un%20modelo,Sam%20Altman%20y%20Greg
%20Brockman.

IMÁGENES

- https://tusapuntesbonitos.com/como-tomar-apuntes-con-chat-
gpt/
-https://www.businessinsider.es/chatgpt-soluciona-brecha-
expuso-mensajes-datos-bancarios-1220610
-https://www.udep.edu.pe/hoy/2023/06/el-chat-gpt-actual-no-
corrobora-la-informacion/
- https://www.marketing-interactive.com/chat-gpt-4-101-on-the-
updated-ai-platform-that-could-take-over-advertising
- https://blog.desdelinux.net/openai-lanza-chatgpt-plus-con-un-
plan-de-suscripcion-de-20-al-mes/
- https://news.neocenter.com/generar-un-toque-personal-c
%C3%B3mo-chatgpt-puede-mejorar-la-experiencia-del-cliente
- https://ferandtech.es/apple-prohibe-a-sus-empleados-el-uso-de-
chatgpt-de-openai-y-copilot-de-github/
- https://elpais.com/sociedad/2023-01-29/chatgpt-es-solo-el-
principio-la-inteligencia-artificial-se-lanza-a-reorganizar-el-
mundo.html
- https://www.youtube.com/watch?v=zH4qx_r2HDE
-
https://www.infobae.com/estados-unidos/2023/03/30/denunciaro
n-a-chatgpt-en-estados-unidos-pidieron-la-suspension-del-
servicio-porque-es-un-riesgo-para-la-privacidad-de-los-usuarios/
- https://www.larepublica.co/internet-economy/bard-google-y-
jasper-entre-los-principales-competidores-de-la-inteligencia-
artificial-3583554

También podría gustarte