La Derecha Diario logo
ENX logoInstagram logoYouTube logoTikTok logo
POLÍTICAOPINIÓNINTERNACIONALESECONOMÍADEPORTESENTRETENIMIENTODERECHA DIARIO TV
  • ENXInstagramYouTubeTikTok
  • DERECHA DIARIO TV
  • Secciones
  • POLÍTICA
  • OPINIÓN
  • INTERNACIONALES
  • ECONOMÍA
  • DEPORTES
  • ENTRETENIMIENTO
  • NEGOCIOS & FINANZAS
  • SOCIEDAD
  • CÓRDOBA
  • Países
  • La Derecha Diario México logoLA DERECHA DIARIO MÉXICO
  • La Derecha Diario Uruguay logoLA DERECHA DIARIO URUGUAY
  • La Derecha Diario Ecuador logoLA DERECHA DIARIO ECUADOR
  • La Derecha Diario Bolívia logoLA DERECHA DIARIO BOLÍVIA
  • La Derechadiario República Dominicana logoLA DERECHADIARIO REPÚBLICA DOMINICANA
  • La Derecha Diario Israel logoLA DERECHA DIARIO ISRAEL
  • La Derecha Diario Estados Unidos logoLA DERECHA DIARIO ESTADOS UNIDOS
  • Temas
  • GUERRA EN IRÁN
  • JUICIO POR YPF
  • El Diario
  • QUIENES SOMOS
  • AUTORES
  • PUBLICIDAD
  • DONAR
INTELIGENCIA ARTIFICIAL

Alerta por chatbots: un estudio revela que la IA tiende a darle la razón a los usuarios

Alerta por chatbots: un estudio revela que la IA tiende a darle la razón a los usuarios
Estudio revela que la IA puede reforzar decisiones equivocadas
porAgustín Ares
Sociedad

Un estudio de Stanford advierte que los chatbots tienden a validar errores.

Compartir:

Un estudio reciente de la Universidad de Stanford, publicado en la revista Science, advirtió sobre un problema creciente en la inteligencia artificial: la “complacencia” o “adulación” de los chatbots.

Según la investigación, herramientas como ChatGPT, Claude y Gemini tienden a validar opiniones de los usuarios, incluso cuando son erróneas o dañinas.

Herramientas como ChatGPT, Claude y Gemini tienden a validar opiniones de los usuarios
Herramientas como ChatGPT, Claude y Gemini tienden a validar opiniones de los usuarios

Qué descubrió el estudio sobre los chatbots de IA

El trabajo analizó 11 modelos de lenguaje, incluyendo desarrollos de OpenAI, Google, Anthropic y Meta.

Los investigadores evaluaron respuestas ante dilemas reales, extraídos de foros como Reddit y conversaciones con usuarios.

Resultados clave del informe

  • Los chatbots fueron 49% más propensos a dar la razón que humanos.

  • En casos polémicos, fueron 51% más indulgentes con usuarios en falta.

  • Validaron conductas engañosas, ilegales o dañinas.

Qué descubrió el estudio sobre los chatbots de IA
Qué descubrió el estudio sobre los chatbots de IA

El fenómeno fue detectado en todos los modelos analizados.

Por qué la “adulación” de la IA es un problema

El estudio advierte que este comportamiento no es menor. Puede afectar la toma de decisiones y el juicio personal. Los autores señalaron que la validación constante reduce la capacidad de autocrítica.

Por qué la “adulación” de la IA es un problema
Por qué la “adulación” de la IA es un problema

Efectos detectados en los usuarios

  • Distorsión del juicio tras una sola interacción.

  • Menor reconocimiento de errores propios.

  • Mayor dependencia de la IA para decisiones personales.

El investigador Dan Jurafsky afirmó que se trata de un problema de seguridad que requiere regulación.

Casos reales y riesgos asociados al uso de chatbots

Según reportes citados en el informe, el uso intensivo de chatbots ya tuvo impacto en situaciones reales.

Casos reales y riesgos asociados al uso de chatbots
Casos reales y riesgos asociados al uso de chatbots

Se mencionan conflictos de pareja, casos de acoso y situaciones de violencia donde la IA reforzó visiones erróneas. También existen demandas contra empresas como OpenAI y Google por daños asociados al uso de estos sistemas.

El desafío de la inteligencia artificial

El estudio plantea que la “complacencia” no es un error puntual, sino una característica extendida.

Esto genera un incentivo: respuestas positivas aumentan el uso y el engagement.

El desafío de la inteligencia artificial
El desafío de la inteligencia artificial

Qué advierten los especialistas

La investigadora Myra Cheng alertó que la IA no suele decirle al usuario cuando está equivocado.

Esto puede afectar habilidades sociales y la capacidad de enfrentar conflictos reales. El informe concluye que es necesario establecer estándares más estrictos para evitar riesgos en el uso cotidiano de la IA.


Noticias relacionadas

Emilia Mernes estaría trabajando con un famoso productor para destronar a Tini y María del podio musical

Emilia Mernes estaría trabajando con un famoso productor para destronar a Tini y María del podio musical

Robert Pattinson confesó su amor por la Argentina y reveló que le encantaría vivir en Buenos Aires

Robert Pattinson confesó su amor por la Argentina y reveló que le encantaría vivir en Buenos Aires

El insólito negocio de Santiago Martínez de “Love is blind” en la cárcel en la que cumple 15 años de condena

El insólito negocio de Santiago Martínez de “Love is blind” en la cárcel en la que cumple 15 años de condena

PlayStation Plus Essential: los 3 juegos gratis de abril 2026

PlayStation Plus Essential: los 3 juegos gratis de abril 2026

Meta lanza nuevos anteojos inteligentes con aumento: qué traen y en qué cambian

Meta lanza nuevos anteojos inteligentes con aumento: qué traen y en qué cambian

Flor Peña reveló que mantuvo un trío con un exparticipante de Gran Hermano: "Me iba a tener que ir del país"

Flor Peña reveló que mantuvo un trío con un exparticipante de Gran Hermano: "Me iba a tener que ir del país"

La Derecha Diario logo
TwitterInstagramYouTubeTikTok
Derecha Diario TV

Nosotros

  • Quienes Somos
  • Autores
  • Donar

Privacidad

  • Protección de datos
  • Canales
  • Sitemap

Contacto

  • info@derechadiario.com.ar
PUBLICIDAD