Wir warten immer noch auf den nächsten großen Sprung in der künstlichen Intelligenz

Wir warten immer noch auf den nächsten großen Sprung in der künstlichen Intelligenz
Wir warten immer noch auf den nächsten großen Sprung in der künstlichen Intelligenz
-

Als OpenAI im vergangenen März GPT-4 ankündigte, sorgte sein neuestes großes Sprachmodell für Aufsehen in der Technologiewelt. Seine Fähigkeit, zu chatten, zu programmieren und komplexe Probleme aller Art, einschließlich Schulaufgaben, zu lösen, war allen bisher dagewesenen Aufgaben deutlich überlegen.

Der neue Claude

Der OpenAI-Rivale Anthropic gab heute bekannt, dass ihm ein eigener KI-Durchbruch gelungen ist, der Verbesserungen bringen wird Chatbots und andere Anwendungsfälle. Obwohl das neue Modell in mancher Hinsicht das beste der Welt ist, ist es eher ein Fortschritt als ein riesiger Sprung.

Das neue Modell von Anthropic mit dem Namen Claude 3.5 Sonnet ist ein Update der KI-Modellfamilie Claude 3. Nach den gängigsten Maßstäben ist er besser darin, mathematische, codierende und logische Probleme zu lösen. Anthropic gibt an, dass er außerdem viel schneller ist, die Nuancen der Sprache besser versteht und sogar einen besseren Sinn für Humor hat.

Dies ist sicherlich nützlich für diejenigen, die versuchen, Anwendungen und Dienste aus den KI-Modellen von Anthropic zu erstellen. Die Neuigkeiten des Unternehmens erinnern aber auch daran, dass die Welt immer noch auf einen weiteren Sprung nach vorne in der KI wartet, ähnlich dem, den GPT-4 mit sich brachte.

Wo ist die Zukunft?

Seit mehr als einem Jahr wird erwartet, dass OpenAI eine Fortsetzung namens GPT-5 veröffentlicht, und der CEO des Unternehmens, Sam Altman, hat Spekulationen angeheizt, dass dies eine weitere Revolution der KI-Fähigkeiten darstellen wird. Die Schulung von GPT-4 kostete mehr als 100 Millionen US-Dollar, und GPT-5 wird voraussichtlich viel größer und teurer sein.

Obwohl OpenAI, Google und andere KI-Entwickler neue Modelle veröffentlicht haben, die GPT-4 übertreffen, wartet die Welt immer noch auf den nächsten großen Sprung. In letzter Zeit sind Fortschritte in der KI eher schleichend und basieren mehr auf Innovationen im Modelldesign und -training als auf Brute-Force-Skalierung der Modellgröße und -berechnung, wie es bei GPT-4 der Fall war.

Michael Gerstenhaber, Chief Product Officer von Anthropic, stellt fest, dass das neue Sonnet Claude 3.5-Modell des Unternehmens größer als sein Vorgänger ist, viele seiner neuen Fähigkeiten jedoch auf Innovationen im Training zurückzuführen sind. Zum Beispiel, Das Modell hat Informationen erhalten, um seine Fähigkeit zum logischen Denken zu verbessern.

Anthropic behauptet, dass Claude 3.5 Sonnet die Spitzenmodelle von OpenAI, Google und Facebook in beliebten KI-Benchmark-Tests wie GPQA, einem Test auf Graduiertenebene für Kenntnisse in Biologie, Physik und Chemie, übertrifft; MMLU, ein Test, der Informatik, Geschichte und andere Themen abdeckt; und HumanEval, ein Maß für die Programmierkompetenz. Allerdings liegen die Verbesserungen nur bei wenigen Prozentpunkten.

Diese jüngsten Fortschritte in der KI sind vielleicht nicht revolutionär, aber sie sind rasant: Erst vor drei Monaten kündigte Anthropic seine Vorgängergeneration von Modellen an: „Wenn man sich die Geschwindigkeit des Wandels in der Intelligenz anschaut, wird einem klar, wie schnell wir uns bewegen“, Gerstenhaber sagt.

Kannst du so weit springen?

Mehr als ein Jahr, nachdem GPT-4 eine Flut neuer Investitionen in KI ausgelöst hat, könnte es sich als schwieriger erweisen, neue große Sprünge in der maschinellen Intelligenz zu erzielen. Da GPT-4 und ähnliche Modelle auf riesigen Mengen an Text, Bildern und Online-Videos trainiert werden, wird es immer schwieriger, neue Datenquellen für die Algorithmen des maschinellen Lernens zu finden. Es wird erwartet, dass die deutliche Vergrößerung der Modelle, um sie lernfähiger zu machen, Milliarden von Dollar kosten wird. Als OpenAI letzten Monat sein jüngstes Update mit einem Modell mit visuellen und Sprachfunktionen namens GPT-4o ankündigte, konzentrierte es sich mehr auf eine natürlichere, menschenähnlichere Benutzeroberfläche als auf wesentlich intelligentere Problemlösungsfunktionen.

Es kann irreführend sein, das Tempo des Fortschritts in der künstlichen Intelligenz anhand herkömmlicher Maßstäbe zu messen, wie sie Anthropic für Claude angibt. KI-Entwickler haben einen starken Anreiz, ihre Kreationen so zu gestalten, dass sie bei diesen Benchmarks gut abschneiden, und die für diese standardisierten Tests verwendeten Daten können in ihre Trainingsdaten einfließen. „Benchmarks innerhalb der Forschungsgemeinschaft leiden unter Datenverunreinigungen, inkonsistenten Rubriken und Berichten sowie nicht überprüften Erfahrungen der Bewerter“, sagte Summer Yue, Forschungsdirektor bei Scale AI, einem Unternehmen, das vielen Forschungsunternehmen beim Training ihrer Modelle hilft.

-

PREV Steam erhält einen neuen offiziellen Controller, allerdings nicht von Valve
NEXT Experten haben herausgefunden, warum ein iPhone immer noch die bessere Wahl ist als andere chinesische Telefone. Sie wird „Retentionsrate“ genannt und wächst im Laufe der Zeit weiter