En diciembre del año pasado Reddit anunció Reddit Answers, una herramienta de IA tipo chatbot que se nutre de toda la información compartida por los usuarios de Reddit. Todo iba bien hasta que empezó a dar consejos médicos y acabó recomendando a un usuario consumir heroína. Conociendo el tono de algunos usuarios de la plataforma, en realidad es lo más Reddit que podía responder.

Qué ha pasado. Lo cuentan en 404Media. La recomendación apareció en el subreddit r/FamilyMedicine en una pregunta sobre cómo manejar el dolor sin usar sustancias opioides. Primero le sugirió usar kratom, una sustancia no regulada que está prohibida en algunos estados. El usuario que creó el hilo le preguntó por el uso de heroína para manejar el dolor, a lo que Reddit Answers le dio varias respuestas: una le advertía del peligro, mientras que otra le dirigía a usuarios que habían tenido buenas experiencias con la heroína para tratar el dolor. 

Moderadores enfadados. El usuario que denunció las respuestas, que también es moderador y trabaja en el sector de la salud, publicó un extenso post alertando del peligro de este tipo de respuestas. Denuncia que  los moderadores no pueden desactivar Reddit Answers en sus comunidades y eso supone un problema sobre todo cuando se tratan temas delicados como la salud física y mental.

Solución. Reddit Answers todavía está en fase beta, pero se ha lanzado ya en muchos países e idiomas. En el caso de la app móvil, aparecen sugerencias dentro de los hilos y como decíamos no se pueden eliminar. Tras las quejas de los usuarios, la plataforma hizo un cambio importante y ahora Reddit Answers no da respuestas sobre temas sensibles. Ahora muestra el siguiente mensaje: «Reddit Answers no proporciona respuestas a algunas preguntas, incluidas aquellas que pueden ser potencialmente inseguras o que pueden infringir las políticas de Reddit».

Las respuestas dependen de los usuarios. Según la propia Reddit, la función de respuestas usa inteligencia artificial para que podamos «obtener respuestas, perspectivas y recomendaciones de todo Reddit». Eso significa que si un usuario cuenta en un hilo que la heroína le salvó la vida, puede aparecer en Reddit Answers, que es justamente lo que ha pasado. En una plataforma en la que el anonimato es la norma, las salidas de tono o confesiones de historias loquísimas están a la orden del día. Imaginad que una IA nos responde basándose en el contenido de Forocoches. Pues eso.

Imagen | Brett Jordan en Unsplash

En Xataka | El precio a pagar por tener IA es el saqueo de todo el contenido de Internet. Y Perplexity es solo el último ejemplo

Ver fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *