Datenschutz ade: ChatGPT weiß so ziemlich alles über Dich!


Kommentare zu folgendem Beitrag: Datenschutz ade: ChatGPT weiß so ziemlich alles über Dich!

1 „Gefällt mir“

Interessant finde ich auch diesen Hinweis. Die ganzen KIs funktionieren nämlich nur mithilfe der Armeen von Billig-Dienstleistern, die in ihren Heimatländern wenig oder sogar gar nichts dafür bekommen, dass sie die Datenbank der künstlichen Intelligenz füllen oder korrigieren.

Naja…da eine KI quasi als „Diener“ der Menschen arbeitet und die Fragen der Menschen beantworten soll, ist es nicht verwunderlich, dass die grundlegenden Daten hierzu, von Menschen stammen!
Und natürlich ist auch ChatGPT künstlich und besitzt eine KI, auch wenn etwas anderes bei Vice in der Überschrift behauptet wird!
Denn die KI dient doch nur dazu, sich in diesen enormen Mengen von Daten zurechtzufinden und dabei die richtige Antwort zu generieren. Dabei ist es doch völlig unerheblich erstmal, wie diese Datenbank zustande gekommen ist… :wink:

Nö, dann wäre es Dir bei Blutwurst wahrscheinlich auch egal, ob es sich um Tierblut handelt.

Der Vergleich mag hinken aber Du weißt, was ich meine …

Wenn die Informationen, die ChatGPT ausspuckt, sowohl wahre als auch unwahre Informationen enthält, und sich alle dessen bewusst sind, ist der Nutzen ziemlich fraglich. Was nützt eine Hilfe, die Unsinn enthält? Was nützt ein unzuverlässiges Lexikon? Nur zwei Beispiele. Solange Wahrheit und Bullshit zusammen herauskommen und man dann sowieso erst andere Quellen überprüfen muss, kann man auch gleich bei den anderen Quellen suchen.

Ist scheinbar noch ein weiter Weg. Außer man ist Populist, dann ist das ein ganz hervorragendes Hilfsmittel, das einem viel Arbeit erspart.

Ja, der Nutzen ist tatsächlich noch fraglich. Der springende Punkt ist vielmehr IMHO, ob das auch wirklich jeder mitbekommt oder manche glauben, da es sich ja um eine Intelligenz handelt, müsse alles richtig sein.

Es gab ja in der Vergangenheit auch Schüler und Studenten, die glaubten, alles was in der Wikipedia steht, stimmt zu 100% so und wäre zitierfähig in einer wissenschaftlichen Arbeit. Pustekuchen.

Das der Nutzen momentan noch fragwürdig ist und das ganze Projekt nicht 100%ig funktioniert, ist doch völlig normal zur Zeit.

Das, was dort als ChatGPT angeboten wird, ist doch nur ein öffentlicher Feldtest und KEIN final Release!!!

Wir haben ein Modell namens ChatGPT trainiert, das dialogorientiert interagiert. Das Dialogformat ermöglicht es ChatGPT, Folgefragen zu beantworten, seine Fehler einzugestehen, falsche Prämissen in Frage zu stellen und unangemessene Anfragen abzulehnen. ChatGPT ist ein Schwestermodell von InstructGPT , das darauf trainiert ist, einer Anweisung in einer Eingabeaufforderung zu folgen und eine detaillierte Antwort zu geben.

Wir haben dieses Modell mithilfe von Reinforcement Learning from Human Feedback (RLHF) trainiert, wobei dieselben Methoden wie InstructGPT verwendet wurden, jedoch mit geringfügigen Unterschieden in der Einrichtung der Datenerfassung. Wir trainierten ein erstes Modell mit überwachter Feinabstimmung: Menschliche KI-Trainer lieferten Gespräche, in denen sie beide Seiten spielten – den Benutzer und einen KI-Assistenten. Wir gaben den Trainern Zugang zu schriftlichen Mustervorschlägen, um ihnen beim Verfassen ihrer Antworten zu helfen. Wir haben diesen neuen Dialogdatensatz mit dem InstructGPT-Datensatz gemischt, den wir in ein Dialogformat transformiert haben.

Um ein Belohnungsmodell für Reinforcement Learning zu erstellen, mussten wir Vergleichsdaten sammeln, die aus zwei oder mehr nach Qualität geordneten Modellantworten bestanden. Um diese Daten zu sammeln, nahmen wir Gespräche auf, die KI-Trainer mit dem Chatbot führten. Wir haben nach dem Zufallsprinzip eine von einem Modell verfasste Nachricht ausgewählt, mehrere alternative Vervollständigungen getestet und von KI-Trainern bewertet. Unter Verwendung dieser Belohnungsmodelle können wir das Modell mithilfe der Optimierung der Proximalpolitik verfeinern . Wir haben mehrere Iterationen dieses Prozesses durchgeführt.

ChatGPT ist eine Feinabstimmung eines Modells der GPT-3.5-Serie, das Anfang 2022 die Schulung beendete. Hier erfahren Sie mehr über die 3.5- Serie . ChatGPT und GPT 3.5 wurden auf einer Azure-KI-Supercomputing-Infrastruktur trainiert.

Einschränkungen:

  • ChatGPT schreibt manchmal plausibel klingende, aber falsche oder unsinnige Antworten. Das Beheben dieses Problems ist eine Herausforderung, da: während des RL-Trainings derzeit keine Quelle der Wahrheit vorhanden ist; das Trainieren des Modells, vorsichtiger zu sein, führt dazu, dass es Fragen ablehnt, die es richtig beantworten kann; und beaufsichtigtes Training führt das Modell in die Irre, weil die ideale Antwort davon abhängt, was das Modell weiß , und nicht, was der menschliche Demonstrator weiß.

  • ChatGPT reagiert empfindlich auf Änderungen an der Eingabeformulierung oder versucht, dieselbe Eingabeaufforderung mehrmals zu wiederholen. Beispielsweise kann das Modell bei einer gegebenen Formulierung einer Frage behaupten, die Antwort nicht zu kennen, aber bei einer leichten Umformulierung richtig antworten.

  • Das Modell ist oft übermäßig wortreich und verwendet bestimmte Ausdrücke übermäßig, z. B. die Wiederholung, dass es sich um ein von OpenAI trainiertes Sprachmodell handelt. Diese Probleme ergeben sich aus Verzerrungen in den Trainingsdaten (Trainer bevorzugen längere Antworten, die umfassender aussehen) und bekannten Überoptimierungsproblemen.

  • Im Idealfall würde das Modell klärende Fragen stellen, wenn der Benutzer eine mehrdeutige Anfrage gestellt hat. Stattdessen erraten unsere aktuellen Modelle normalerweise, was der Benutzer beabsichtigt hat.

  • Obwohl wir uns bemüht haben, das Modell dazu zu bringen, unangemessene Anfragen abzulehnen, reagiert es manchmal auf schädliche Anweisungen oder zeigt ein voreingenommenes Verhalten. Wir verwenden die Moderation API , um bestimmte Arten von unsicheren Inhalten zu warnen oder zu blockieren, aber wir gehen davon aus, dass sie vorerst einige falsch negative und positive Ergebnisse enthalten wird. Wir sind bestrebt, Benutzerfeedback zu sammeln, um unsere laufende Arbeit zur Verbesserung dieses Systems zu unterstützen.

Wir sind die Versuchs-Objekte. Das bloße Wissen darum bewahrt uns nicht davor.

1 „Gefällt mir“