GPT-3.5 Turbo mit eigenen Daten füttern und damit das Sprachmodell für eigene Anwendungszwecke individualisieren – dieses Finetuning des KI-Modells ist ab sofort möglich. Das haben die Entwickler von OpenAI in einem Blogpost angekündigt. Auch beim noch mächtigeren Nachfolger GPT-4 soll das Nachtrainieren mit eigenen Daten im Herbst möglich sein. Auf feingetunten Versionen von GPT-3.5 (kostenlose Version) beziehungsweise GPT-4 (kostenpflichtiges Plus-Abo) basiert auch das beliebte KI-Tool ChatGPT desselben Herstellers.
Wer GPT-3.5 Turbo mit eigenen Daten füttert, kann die Leistung des Sprachmodells “für bestimmte, begrenzte Aufgaben” über die der Basisversion GPT-4 treiben, verspricht OpenAI. Und: Daten, die Firmen oder Einzelpersonen über die Finetuning-API schicken, blieben Eigentum der Kunden und würden nicht von OpenAI oder anderen selbst zum Training von Modellen verwendet.
Langsam wird das doch immer interessanter. Grade im Zusammenhang mit dem Assist von Home Asssitant und Willow wird das tatsaechlich praktikabel und nutzerfreundlich, es werden aber weiterhin Daten an OpenAI gesendet, auch wenn einem die Daten weiterhin gehoeren. Irgendwie werden die Daten sicherlich verwendet werden.
Sollte wohl nicht mehr lange dauern bis wir das Zeug ohne QoL Einbußen auch selbst lokal hosten koennen.
Nach dem, was ich gehört habe (habe selber nur Llama1 64B im Schneckentempo via CPU probiert, war viel schlechter als GPT3.5), soll LLama2 70B wohl mit GPT 3.5 mithalten können. Aber du brauchst halt ne high-end GPU, damit das auch nur ansatzweise nutzbar ist.
Ehrlich gesagt brauche ich keine richtige AI für meine Sprachsteuerung, selbst definierbare Befehle reichen mir vollkommen aus. Leider ist was in HA ist noch nicht auf dem gleichen Stand wie Rhasspi bevor es da aufgehört hat mit der aktiven Entwicklung.