DeepSeek vs. ChatGPT: Wie gut ist Chinas Open-Source-KI wirklich?


Kommentare zu folgendem Beitrag: DeepSeek vs. ChatGPT: Wie gut ist Chinas Open-Source-KI wirklich?

Mal ne Frage als Laie… Wenn ich das Lokal betreiben will, muss ich das aber vermutlich komplett von null an trainieren, oder? Man wird deepseek ja vermutlich nicht inkl. All seinem Wissen zur Verfügung gestellt bekommen ?

Die Modelle sind mit allen Daten verfügbar und können von jeden downgeloadet und genutzt werden allerdings gibt es eine Reihe von Modellen und nicht nur eins und je nach Hardware macht es auch kein Sinn die großen Modelle zu nutzten. Das 32B braucht ca. 21GB GPU RAM z.b. mit ollama
http_s://ollama.com/library/deepseek-r1:32b
das 1.5B nur 1GB und das 671B Modell >400GB also da brauch es dann schon einen GPU-Cluster
Was ich noch empfehlen kann, ist GPT4ALL ab Version 3.8 kann es auch mit den modalen umgehen und ist zum Spielen einfacher auf dem Desktop als ollama.

http_s://github.com/nomic-ai/gpt4all/releases

Viel Spaß beim Heizen :slight_smile:
PS: Zum Datenschutz Propaganda gelaber… bei OpenAI und co nutzten sie auch die Daten zum Trainieren, ob man es will oder nicht das machen alle AI brows denn die Bibliotheken und das Internet haben sie schon durch…

1 „Gefällt mir“