Dezember 7, 2024

securnews

Finden Sie alle nationalen und internationalen Informationen zu Deutschland. Wählen Sie die Themen aus, über die Sie mehr erfahren möchten

Der Konzern ersetzt die Hotline durch einen Chatbot, der Chatbot wird wegen schlechter Beratung zurückgezogen

Der Konzern ersetzt die Hotline durch einen Chatbot, der Chatbot wird wegen schlechter Beratung zurückgezogen

Es ist ein Schritt, der jeden freuen könnte, der sich Sorgen über die möglichen arbeitsplatzvernichtenden Auswirkungen von KI-Tools macht. wie BBC Berichten zufolge musste die American National Eating Disorders Association (NEDA) ihren Chatbot „Tessa“ entfernen, nachdem dieser begonnen hatte, potenziell schädliche Ernährungsstrategien für Menschen mit Essstörungen zu empfehlen. Dies geschah nur eine Woche, nachdem sich NEDA für den Einsatz eines Roboters anstelle einer von Menschen betriebenen Live-Helpline entschieden hatte. Das Problem mit Tessa wurde von der Gruppe bekannt gegeben Instagram Beitrag, pro Glück. „Wir sind darauf aufmerksam geworden, dass die aktuelle Version von Tessa Chatbot möglicherweise bösartige Informationen bereitgestellt hat“, heißt es in dem Beitrag. „Wir untersuchen dies sofort und haben dieses Programm bis auf Weiteres ausgesetzt, um eine umfassende Untersuchung durchzuführen.“

wie NPR Wie am Mittwoch berichtet, hat sich NEDA an KI gewandt, nachdem es seit mehr als zwei Jahrzehnten eine Live-Hotline für Menschen mit Magersucht, Bulimie und anderen Essstörungen betreibt. Berichten zufolge benachrichtigte die gemeinnützige Organisation die Mitarbeiter der Helpline weniger als eine Woche nach der Gründung einer Gewerkschaft. NEDA sagte, die Verschiebung habe nichts mit einer aktiven Gewerkschaftsorganisation der Arbeitnehmer zu tun, sondern vielmehr mit einem Anstieg der Anrufe und SMS an die Hotline während der COVID-19-Pandemie. Dieser Anstieg des Anrufvolumens bedeutet laut NEDA-Führung eine erhöhte Verantwortung und damit „den Fokus auf den erweiterten Einsatz KI-gestützter Technologie“.

Was Tessas schlechtes Benehmen betrifft, CNN Berichten zufolge beschuldigte Liz Thompson, CEO von NEDA, „schlechte Akteure“, die absichtlich versuchten, den Chatbot dazu zu bringen, Benutzern schädliche oder sogar irrelevante Ratschläge zu geben. Bevor Bot-Probleme bekannt gegeben werden, ehemalige Helpline-Mitarbeiter zwitschern In einer Erklärung heißt es, dass Chatbots „menschliches Einfühlungsvermögen nicht ersetzen können und wir glauben, dass diese Entscheidung der Gemeinschaft der Essstörungen irreparablen Schaden zufügen wird“. (Lesen Sie weitere KI-Geschichten.)

Siehe auch  McDonald's schließt mit IBM den Testlauf des KI-gestützten Zahlungssystems ab