Dezember 7, 2024

securnews

Finden Sie alle nationalen und internationalen Informationen zu Deutschland. Wählen Sie die Themen aus, über die Sie mehr erfahren möchten

Berichten zufolge haben drei Samsung-Mitarbeiter vertrauliche Daten an ChatGPT weitergegeben

Berichten zufolge haben drei Samsung-Mitarbeiter vertrauliche Daten an ChatGPT weitergegeben

An der Oberfläche mag es wie ein Tool erscheinen, das für eine Reihe von Geschäftsaufgaben nützlich sein könnte. Aber bevor Sie einen Chatbot bitten, wichtige Notizen zusammenzufassen oder Ihre Arbeit auf Fehler zu überprüfen, sollten Sie daran denken, dass alles, was Sie mit ChatGPT teilen, verwendet werden kann, um das System zu trainieren und möglicherweise in seinen Antworten für andere Benutzer aufzutauchen. Dies ist etwas, dessen sich viele Mitarbeiter wahrscheinlich bewusst sein sollten, bevor sie aufgefordert wurden, vertrauliche Informationen mit einem Chatbot zu teilen.

Kurz nachdem die Halbleitersparte von Samsung damit begonnen hatte, Ingenieuren die Nutzung von ChatGPT zu erlauben, gaben Mitarbeiter mindestens dreimal vertrauliche Informationen an sie weiter (Wie ich es entdeckt habe ). Berichten zufolge bat ein Mitarbeiter den Chatbot, den Quellcode der sensiblen Datenbank auf Fehler zu überprüfen, ein anderer bat darum, den Code zu verbessern, und ein dritter fütterte ein von ChatGPT aufgezeichnetes Meeting und bat ihn, Protokolle zu erstellen.

Sie stellt fest, dass Samsung, nachdem es von den Sicherheitsfehlern erfahren hatte, versuchte, das Ausmaß zukünftiger Fehler zu begrenzen, indem es die Länge von ChatGPT-Nachrichten an Mitarbeiter auf 1 Kilobyte oder 1024 Textzeichen begrenzte. Das Unternehmen soll auch gegen die drei beteiligten Mitarbeiter ermitteln und einen eigenen Chatbot bauen, um ähnliche Vorfälle zu verhindern. Engadget hat Samsung um einen Kommentar gebeten.

ChatGPTs Es besagt, dass es seine Eingabeaufforderungen verwendet, um seine Modelle zu trainieren, es sei denn, Benutzer lehnen dies ausdrücklich ab. OpenAI ist der Eigentümer des Chatbots Geben Sie in Chats keine vertraulichen Informationen an ChatGPT weiter, da „bestimmte Eingabeaufforderungen nicht aus Ihrem Verlauf gelöscht werden können“. Die einzige Möglichkeit, persönlich identifizierbare Informationen auf ChatGPT loszuwerden, besteht darin, Ihr Konto zu löschen – ein Vorgang .

Siehe auch  Gemini AI ist die Zukunft von Android, Pixel und Google

Die Samsung-Saga ist ein weiteres Beispiel dafür, warum es bei all Ihren Online-Aktivitäten so ist, wie es sein sollte. Sie wissen nie wirklich, wo Ihre Daten landen werden.