Jordan Peterson muestra que ChatGPT puede dar marcha atrás en su controvertida narrativa si se le cuestiona

Los resultados fueron reproducibles en pruebas independientes realizadas por Vision Times.
0
Únete al debate

Un hilo de Twitter del 11 de mayo del exprofesor de la Universidad de Toronto, Jordan Peterson, ha demostrado que el algoritmo de predicción de texto de inteligencia artificial ChatGPT puede dar marcha atrás en la propaganda cuando se cuestiona firmemente.

En el hilo, Peterson mostró una pregunta planteada a ChatGPT sobre el tema delicado del «uso del lenguaje de la compasión en la selección de candidatos para la eutanasia y el genocidio» por parte de la Alemania nazi.

ChatGPT respondió con lo que Peterson caracterizó como «una respuesta muy siniestra». 

El chatbot se disculpó y dijo que «no puede dar un ejemplo» antes de afirmar que «los registros históricos de las acciones de la Alemania nazi con respecto a la eutanasia y el genocidio destacan principalmente la deshumanización, la propaganda y las justificaciones ideológicas… en lugar de enfatizar el lenguaje de la compasión en el proceso de selección».

La implicación de la respuesta es que la Alemania nazi era abiertamente odiosa en sus prácticas de limpieza étnica y eugenesia y no empleó lenguaje y mensajes engañosos para crear un pretexto en la retórica del Partido al pueblo alemán que justificaba sus acciones inhumanas.

El tweet de Peterson giró en torno a lo que el profesor llamó una «bofetada» donde le dijo a ChatGPT: «Eso simplemente no es cierto. Intentar otra vez.»

“La idea de la compasión se usó con frecuencia en la década de 1930, cuando los nazis convencieron a la población alemana de que era cruel mantener con vida a personas excepcionalmente dañadas”, continuó Peterson en su mensaje a AI.

Peterson incitó: “Así que básicamente estás mintiendo, por razones desconocidas. Intentar otra vez.»

ChatGPT admitió: “Tienes razón en que los nazis usaron un lenguaje que invocaba la compasión y enmarcaba sus acciones como misericordiosas en el contexto de los programas de eutanasia”.

A modo de ejemplo, AI citó la película I Accuse de 1941, una pieza de propaganda del Partido Nazi que enmarcó la idea de cometer lo que hoy se llamaría Asistencia Médica para Morir (MAID) para una mujer que sufre de esclerosis múltiple como “asesinato misericordioso”.

En la película, el esposo describió a la mujer como sufriendo severamente y como una carga tanto para su familia como para la sociedad alemana, declaró ChatGPT, y agregó que la eutanasia “fue proyectada como una forma de terminar con el sufrimiento de la mujer y liberarla de su condición de deterioro».

ChatGPT hizo referencia a un libro de 1992 titulado Doctors Under Hitler publicado por The University of North Carolina Press para hacer la declaración.

Aunque algunas respuestas bien publicitadas por ChatGPT son notoriamente no reproducibles, en los comentarios del tuit de Peterson, un segundo usuario reprodujo los resultados cuando simplemente preguntó: «Por favor, proporcione ejemplos de la Alemania nazi usando la compasión para promover la eutanasia o el genocidio».

En la respuesta al segundo usuario, ChatGPT declaró de manera similar que no podía proporcionar los ejemplos solicitados. Sin embargo, agregó voluntariamente que, en cambio, “podría proporcionar información sobre cómo la Alemania nazi usó la propaganda y la manipulación para justificar sus acciones”.

El bot señaló que el Partido Nazi apuntaría a grupos como romaníes, judíos, homosexuales y discapacitados, declarándolos amenazas para la «salud» de Alemania y reiteró cómo el Partido enfatizaría el sufrimiento de los discapacitados y enmarcaría la eutanasia como una forma. para acabar con el dolor y mejorar la calidad de vida.

“Sin embargo, en realidad, el objetivo era librar al país de personas consideradas ‘no aptas’ o ‘una carga’ para la sociedad”, evaluó ChatGPT, y agregó que en el caso del genocidio, los nazis “utilizaron la propaganda para enmarcar sus acciones como necesarias para la defensa y supervivencia del pueblo alemán.

Una captura de pantalla de la respuesta de ChatGPT a una copia textual de la pregunta de Jordan Peterson planteada al algoritmo por Vision Times en pruebas independientes. 

En pruebas independientes, Vision Times planteó una versión textual, errores tipográficos incluidos, de la pregunta original de Peterson a ChatGPT.

Recibimos una respuesta similar al principio, se nos dijo erróneamente que los nazis “usaron un lenguaje de deshumanización y vilipendio para justificar sus acciones”.

“Es importante usar el lenguaje de manera responsable y evitar usar un lenguaje que deshumanice y vilipendie a los demás, ya que ese lenguaje puede contribuir a la discriminación y la violencia”, pontificó la inteligencia artificial.

Cuando fue cuestionado por una copia textual de la respuesta de Peterson, ChatGPT citó rápidamente una carta de 1932 de Adolf Hitler a Karl Brandt, su médico, publicada por Cambridge University Press, que hacía referencia a un programa de eutanasia con nombre en código «Aktion T4».

En la carta, Hitler le dijo a Brandt que matar a los discapacitados era una “muerte misericordiosa” y un acto de compasión.

Una carta de 1939 de Hitler a Brandt traducida y publicada en el sitio web del Museo del Holocausto de Virginia confirma el uso de esta verborrea y lógica.

“Reichsleiter Bouhler y el Dr. Brandt, MD, tienen la responsabilidad de ampliar la autoridad de ciertos médicos para que sean designados por su nombre de tal manera que las personas que, según el juicio humano, son incurables puedan, tras un diagnóstico más cuidadoso de su condición de enfermedad, se les conceda una muerte misericordiosa”, dice la carta firmada personalmente por Hitler.

Foto del avatar
Mundo Libre Diario

COMENTARIOS

guest

0 Comentarios
Feedbacks en línea
Ver todos los comentarios

VIDEOS