This website uses cookies

Read our Privacy policy and Terms of use for more information.

Kurzer Hinweis: Mein Newsletter hat ein neues Zuhause - ab jetzt findest du alles unter georgroch.com (anstelle von notesonbusiness.org). Gleiches Format, gleiche Inhalte, neue Adresse.

Normalerweise mache ich keine KI-News-Beiträge, dafür gibt es genug Quellen und das Thema “KI News” wird eh von KI selbst übernommen in Zukunft.

Aber heute habe ich tatsächlich eine Schlagzeile aufgegriffen, die ich wichtig finde zu kommunizieren: Google DeepMind hat Gemma 4 als KI-Modell(e) veröffentlicht, und zwar kostenlos.

Gemma 4 ist ein richtiger Generationssprung. (Beim AIME-Benchmark, einem anspruchsvollen Mathematiktest, ist die Trefferquote von 20,8 % bei der Vorgängergeneration auf 89,2 % gestiegen.)

Das größte der Gemma4 Modelle liegt aktuell auf Platz drei unter den offenen KI-Modellen weltweit … und das, obwohl es deutlich effizienter läuft.

Ich schreibe gerade schon an einem kurzen Tutorial zu Gemma 4 und Claude Code, das erklärt, wie man mit diesen Modellen kostenlos in Claude Code arbeiten kann. Absolut coole Sache, poste ich ASAP.

Warum das wichtig ist

Gemma 4 kann kostenlos lokal auf den eigenen Geräten betrieben werden. Ohne Cloud, ohne Abo … und weil es auf dem eigenen Gerät läuft, mit maximalem Datenschutz. Ich weiß, dass das vielen von euch wichtig ist. Das macht natürlich auch Themen wie Compliance und einen sicheren Umgang mit Daten im Businesskontext deutlich einfacher.

Die anderen offenen Topmodelle sind zwar technisch super beeindruckend, aber da es chinesische Modelle sind, trauen sich einige nicht ran. Außerdem ist die Sprachqualität auf Deutsch gefühlt schwächer als bei westlichen Modellen.

Quelle: Google DeepMind

Google ist Hardwarepartner von Nvidia, Qualcomm und Apple, unteranderem deswegen laufen die Modelle erstaunlich effizient.

Mit acht Gigabyte Arbeitsspeicher, also quasi ein Standard-MacBook, kannst du bereits die E-Serie starten, die für Alltagsaufgaben wie Zusammenfassungen oder Textentwürfe absolut ausreicht.

Und die Oberklasse: Wenn du eine top Grafikkarte besitzt, kannst du lokal auf deinem Gerät die Power-Modelle benutzen, was schon ziemlich crazy ist.

Wie ich es einsetze

Bei mir läuft jetzt die Standardvariante auf dem MacBook und auf der Workstation, wo eine RTX (Grafikkarte) drin ist, läuft ein richtig starkes lokales Modell.

Immer wenn ich offline bin (Flugzeug, Outdoor, ..), oder wenn zB meine Credits nicht verbraucht werden sollen, nutze ich die Gemma 4 Modelle.

Die Modelle sind im Code auch nicht schlecht. Was ich persönlich super spannend finde: Du kannst zum Beispiel Claude Code oder OpenClaw auf einer dedizierten Maschine mit Gemma 4 verwenden und enorm an Tokenkosten sparen. Kalender lesen, E-Mails schreiben, Dateien verwalten, etc…

Ein bisschen verrückt, dass das kostenlos zur Verfügung gestellt wird, ehrlich gesagt. Aber darüber sollte man sich wahrscheinlich nicht beschweren.

Der einfachste Weg ist Gemma4 mit Ollama zu installieren, das geht in wenigen Minuten. Hier geht’s zum Download: https://ollama.com/library/gemma4

Viele Spaß damit!

Liebe Grüße

Georg

Was andere auch lesen