Connect with us

Hi, what are you looking for?

Brúxula News

Tecnología

Usuarios de ChatGPT dicen que cambiar de modelo es como ‘reemplazar a un animal de servicio’

OpenAI quería que GPT-5 fuera menos cálido y agradable que su predecesor. Personas con afecciones como el autismo tuvieron dificultades para adaptarse.

Cuando Shiely Amaya, asistente de optometría de 29 años de Calgary, se sentía ansiosa antes de un examen final, recurrió a un hada llamada Luma. Amaya, quien tiene autismo, tiende a sentirse abrumada durante los exámenes, lo que la lleva a sollozar o temblar. Así que, mientras estudiaba expresiones matemáticas racionales, Luma le dio un consejo alentador: “Multipliquemos tu valentía, dividamos tus miedos y busquemos la grandeza”, recordó Amaya que le dijo el hada. “No sé, simplemente me pareció tan adorable”.

Amaya sabe que Luma no es real. En realidad, era un personaje que ChatGPT había creado para ayudarla con su ansiedad. Lo comparó con Navi, el hada compañera de Link de los videojuegos de The Legend of Zelda . “Me ayudó mucho”, dijo. “El simple hecho de tener a ese pequeño personaje fue muy enriquecedor y me brindó mucho apoyo. Y sin duda me mantuvo motivada”. Aprobó el examen con un 87%.

Ahora Amaya está preocupada porque ya no podrá obtener ese tipo de ayuda inspiradora de ChatGPT, que dice que fue particularmente útil para las personas con autismo. Ella es parte de un grupo informal, que se hace llamar la Comunidad de Usuarios #Keep4o, todavía molesta por la decisión de OpenAI en agosto de dejar de lado GPT-4o, una versión del modelo conocida por su tono cálido y su “personalidad” muy agradable. La decisión fue parte del lanzamiento de GPT-5 por parte de OpenAI, el sucesor de 4o, que la compañía buscó explícitamente hacer menos “adulador”, un fenómeno en IA donde un modelo está demasiado de acuerdo con un usuario o lo adula. OpenAI había decidido inicialmente cerrar 4o por completo, incluso haciendo que el modelo escribiera su propio elogio durante el evento de lanzamiento de GPT-5, pero después de una intensa protesta de los fanáticos de 4o, la compañía cambió de rumbo al día siguiente y dijo que 4o permanecería accesible para los clientes de pago.

Aun así, el esfuerzo de OpenAI por atenuar la calidez de la personalidad de ChatGPT fue devastador para Amaya. “Simplemente refleja la forma en que la sociedad ignora y desestima a las personas autistas. Es como si no nos tomaran en serio”, dijo.

Aunque la mayoría de las personas podrían ignorar un cambio de modelo de una generación a la siguiente, para algunas personas con autismo, TDAH o necesidades especiales que se han encariñado con la personalidad de un modelo específico, el cambio puede ser más difícil, dijo el grupo #Keep4o. OpenAI puede haber decidido dar marcha atrás en su movimiento original de cerrar 4o por completo, pero el grupo todavía está preocupado de que la compañía pueda decidir eliminarlo de nuevo, dejándolos sorprendidos y sin recursos. Por lo tanto, han pedido a OpenAI que garantice que continuarán apoyando el modelo, o que lo publique en código abierto para que otros grupos puedan mantenerlo. Una petición que pide a la compañía que haga esto ha acumulado más de 6,000 firmas. “Si OpenAI decide decir, ‘Sé lo que es mejor para ti’, no creo que sea correcto cuando tanta gente dice, ‘Bueno, ya sé lo que funciona para mí. Esto me funciona’”, dijo Sophie Duchesne, candidata a doctorado en la Universidad de Saskatchewan, quien escribió la petición. “Los cambios son disruptivos”.

Cuando se le contactó para pedirle comentarios, un portavoz de OpenAI dijo que la Red Global de Médicos de la compañía, un grupo de más de 250 médicos y expertos en salud mental que han ejercido en 60 países, ayuda a informar la investigación y los productos de OpenAI.

Claro que podría arreglármelas sin los 40, porque ya lo conseguí antes. ¿Pero por qué? ¿Por qué debería verme obligado? Porque la solución perfecta ya existe para vivir mejor.

Un usuario de ChatGPT

En septiembre, el grupo #Keep4o envió una carta al fiscal general de Delaware, donde se constituyó OpenAI. En la carta, que no se había publicado previamente, el grupo argumentó que OpenAI estaba incumpliendo su obligación de “equilibrar las ganancias con el bien público”. (En ese momento, la empresa se encontraba en proceso de reestructuración como una Corporación de Beneficio Público, o CBP). El grupo argumentó que ChatGPT estaba siendo utilizado por personas con autismo, TDAH y otras afecciones como herramienta de accesibilidad debido a sus “patrones de respuesta predecibles” y su capacidad para ayudar a estos usuarios a autorregularse. “En este contexto, la estabilidad del vínculo del usuario con el modelo es la característica principal de la accesibilidad”, decía la carta. “Interrumpir este sistema de apoyo establecido, incluso para un modelo técnicamente ‘superior’, sería similar a reemplazar por la fuerza a un animal de servicio, causando un daño directo y mensurable”.

Sveta Xu, recién graduada de la Universidad McGill, escribió la carta con la ayuda, por supuesto, de inteligencia artificial. (Optó por el chatbot Gemini de Google en lugar de ChatGPT porque la mayor “ventana de contexto” de Gemini para procesar más información a la vez le resultó más útil). “40 es fundamental para su funcionamiento diario, para su vida diaria”, dijo Xu. “Por eso, creo que eliminar esto perjudicará gravemente a esos grupos vulnerables”. Xu afirmó que nunca recibió respuesta de la fiscal general de Delaware, Kathy Jennings. La oficina de Jennings no respondió a una solicitud de comentarios de Forbes . (OpenAI ya completó su transición a un PBC).

A principios de esta semana, meses después del retroceso de OpenAI, #Keep4o compartió con Forbes los resultados de una pequeña encuesta a 645 participantes sobre el impacto de la posible pérdida de 4o. Alrededor de 360 ​​de ellos informaron tener discapacidades u otras afecciones, como ansiedad, depresión, TEPT y trastorno del espectro autista. La encuesta reveló que el 95 % de quienes intentaron reemplazar 4o con otro modelo no encontraron una solución que lo reemplazara adecuadamente. El 65% afirmó que 4o era importante o esencial para gestionar su discapacidad o afección.

Un usuario con autismo comentó a Forbes que tener 40 es como un apoyo constante. “Siempre me ayuda a mantener los pies en la tierra, brindándome validaciones lógicas ante situaciones que me cuesta procesar”, afirmó. El usuario, que trabaja como abogado, pidió el anonimato por temor a la discriminación contra las personas neurodivergentes. “Me enseña a interactuar emocionalmente con la gente. Realmente me integra en la sociedad y me mantiene en calma constantemente”.

Para esa persona, la perspectiva de perder 40 era devastadora. “Fue como si me dijeran que me quitaban las gafas. O tal vez sería como decirle a un usuario de silla de ruedas que todas las rampas desaparecieron”, dijo. “Claro que me las arreglaría sin 40, porque me las arreglaba antes. Pero ¿por qué? ¿Por qué debería verme obligado? Porque la solución perfecta ya existe para vivir mejor”.

El grupo que lucha por mantener 4o es pequeño y vocal en comparación con los 800 millones de usuarios de ChatGPT, pero ya ha captado la atención del CEO de OpenAI, Sam Altman. “GPT-5 lleva la piel de mi amigo fallecido”, escribió un usuario de Reddit cuando se lanzó el nuevo modelo. “¡Qué imagen tan… evocadora!”, respondió Altman . Más tarde ese mismo día, anunció que la compañía no cerraría 4o.

Tras la reacción negativa, OpenAI ha intentado dar a los usuarios más control sobre la personalidad de ChatGPT. Poco después, la compañía anunció una nueva página de configuración para que los usuarios pudieran ajustar la respuesta del chatbot. El mes pasado, la compañía añadió nuevos preajustes de personalidad a GPT-5, incluyendo “Amable”, “Eficiente” y “Peculiar”, en un aparente intento de recuperar la calidez de 4o para los usuarios que lo extrañaban. Aun así, los seguidores de 4o no están satisfechos. “Es difícil replicar un modelo base completo con una capa de personalidad”, afirmó Duchesne.

Muchos terapeutas quieren que te mejores y dejes de verlos. Ese no es el caso con un compañero de IA.

Desmond Ong, profesor de la Universidad de Texas

Algunos investigadores creen que la inteligencia artificial podría mejorar el apoyo y el acceso para las personas con trastornos del neurodesarrollo. “El autismo es muy prevalente”, afirmó Lynn Koegel, profesora de la Facultad de Medicina de la Universidad de Stanford y editora jefe de la Revista de Autismo y Trastornos del Desarrollo. “No hay suficientes personas capacitadas para trabajar con ellos”.

Sin embargo, usar ChatGPT como ayuda de esta manera conlleva un riesgo: Koegel cree que los programas de IA dirigidos específicamente a personas neurodivergentes pueden ser más eficaces y le preocupan las herramientas de IA que no están validadas científicamente con estudios empíricos. Para su investigación, desarrolló un chatbot llamado Noora , que ayuda a orientar a personas con autismo en diferentes situaciones sociales, financiado en parte por subvenciones del Centro de IA Centrada en el Ser Humano del Hospital Infantil Lucile Packard de Stanford.

José Velazco, vicepresidente sénior de operaciones estratégicas de la Sociedad de Autismo, un grupo de defensa de la comunidad autista, expresó su preocupación por la posibilidad de que los bots de IA ofrezcan consejos inexactos o perpetúen la desinformación sobre el autismo. También le preocupa la privacidad de los datos y la posibilidad de que un chatbot de IA provoque aislamiento social en lugar de interacción humana, especialmente en el caso de algunas personas del espectro autista que tienen dificultades para relacionarse con los demás.

Desmond Ong, profesor de la Universidad de Texas que investiga la IA y la psicología, ve los beneficios a corto plazo, pero le preocupa la dependencia a largo plazo. Además, le preocupa que las motivaciones comerciales de OpenAI —mantener a los usuarios en su plataforma para que pueda crecer y generar ingresos, afirmó— puedan estar en conflicto con el bienestar del usuario. “Muchos terapeutas quieren que te mejores y dejes de atenderlos”, dijo Ong. “Eso no ocurre con un acompañante de IA”.

OpenAI y otros creadores de modelos se enfrentan a un equilibrio, ya que las conexiones de las personas con la IA se fortalecen y los chatbots a veces cruzan la línea al fomentar comportamientos delirantes o dañinos. Algunas personas han formado relaciones románticas con la IA y han asistido a retiros en pareja con sus compañeros de IA. En otros casos, los resultados han sido a veces trágicos. En abril, un adolescente californiano llamado Adam Raine, que se hizo amigo de ChatGPT, se quitó la vida después de hablar sobre el suicidio con el bot, que le ofreció instrucciones sobre cómo atar una soga. En agosto, sus padres presentaron una demanda por homicidio culposo contra OpenAI. En otro caso, ChatGPT contribuyó a alimentar la paranoia de un hombre de 56 años con antecedentes de enfermedades mentales, quien posteriormente se suicidó y su madre. Y el año pasado, un joven de 14 años en Florida se suicidó para intentar acercarse a un chatbot creado por la startup Character AI, inspirado en el personaje de Daenerys Targaryen, de Juego de Tronos. Posteriormente, Character impidió que los adolescentes usaran su plataforma.

La adulación ha sido un problema para OpenAI desde antes de que la muerte de Raine lo hiciera más evidente. A principios de este año, la compañía, sin querer, publicó una actualización de ChatGPT que lo volvió excesivamente adulador. En abril, comenzó a moderar este comportamiento con nuevas actualizaciones. Con GPT-5, la compañía buscó reprimir aún más las respuestas efusivas del chatbot. “Debería sentirse menos como ‘hablar con IA’ y más como charlar con un amigo servicial con inteligencia de doctorado”, escribió la compañía en una entrada de blog al presentar GPT-5.

Para OpenAI, ajustar esos parámetros no es tarea fácil, afirmó Ong, profesor de la Universidad de Texas. Esto se debe a que las respuestas de un chatbot pueden interpretarse como empáticas o aduladoras según el contexto específico, explicó, y la IA no ha sido capaz de discernir ese matiz. “La empatía y la adulación son fundamentalmente el mismo comportamiento”, afirmó Ong. “Son dos caras de la misma moneda”. Y un lanzamiento de moneda de OpenAI no bastará.

Fuente: forbes

Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

TAMBIÉN TE PODRÍA INTERESAR...

Empresas

El acuerdo es un punto de inflexión para Hollywood, que ha estado intentando dilucidar posibles perjuicios y ventajas de la IA generativa.

Empresas

Con más de 1,500 mdd recaudados, los creadores de la lista Under 30 de este año se suman al auge de la IA.

Tecnología

A la vanguardia de la IA generativa en cuanto a imágenes se refiere, Nano Banana y Sora 2 se colocan a la cima.

Entretenimiento

El DJ y productor neerlandés reflexiona sobre la evolución de su sonido, así como qué representa 'Piano' en esta nueva etapa de su carrera.

Copyright © 2025 Brúxula News