Was ist Samsung TRM? Neue KI-Modellforscherin Alexia Jolicour-Martino Deepseek R1, Opena O3-Mini und Google Gemini 2.5 Pro-Logik

Neu-Delhi, 9. Oktober: Das Advanced Institute of Technology (SIT) von Samsung hat ein neues KI-Modell namens Short Repeat Model (TRM) vorgestellt. Das Samsung TRM-Modell soll mit 7 Millionen Parametern sehr klein sein, obwohl es mit einigen der größten verfügbaren Sprachmodelle verglichen wird. Trotz der kompakten Größe konkurriert der TRM mit 10.000-mal größeren Modellen und stellt sein Können unter Beweis.

Die leitende KI-Forscherin Alexia Joliaur-Martino wurde unter der Leitung des Samsung TRM Samsung Advanced Institute of Technology entwickelt. Berichten zufolge funktioniert Samsungs neues offenes Reasoning-Modell TRM 10.000-mal besser als seine Größe. Das Modell übertrifft die wichtigsten Sprachmodelle, darunter das DEPSIK R1, das O3-Mini von Openai und das Gemini 2.5 Pro von Google, bei den logischen Herausforderungstests. Grocity Code Fast 1 ist jetzt bei Microsoft Visual Studio verfügbar: Elon Musk.

Samsung ist ein kleines repetitives Modell (TRM)

Samsung hat mehrere Modelle übertroffen, darunter Opena O3 Mini, Gemini 2.5 Pro und Opena

Samsung TRM mit einem 7-Millionen-Parameter

Was ist Samsung TRM?

Der leitende KI-Forscher von Samsung stellte das TRM vor, das eine einfache repetitive logische Methode verwendet. Es heißt, dass bei der Arbeit mit einem einzelnen kleinen Netzwerk mit zwei Schichten das TRM eine bessere Normalisierung aufweist als das Reasoning Model (HRM). Es wird beschrieben, dass HRML zwei kompakte Neurolnetzwerke verwendet, die sich mit unterschiedlicher Häufigkeit wiederholen. Obwohl dieser Ansatz mit kleinen Modellen mit 27 Millionen Parametern trainiert wird, übertrifft er große Sprachmodelle bei Aufgaben wie Sudoku, Maze und Arc-AGI. HRM zeigt, dass es komplexe Probleme mit kleinen Netzwerken löst, die möglicherweise nicht vollständig verstanden und möglicherweise nicht vollständig optimiert werden. Grocer Imagine V0.9-Veröffentlichung: Elon Musk fordert Benutzer auf, Videos aus Standbildern mit einer neuen, besseren Version zu erstellen.

A. Papier Eingereicht arxiv.org. Diese Leistung übertrifft sehr große Sprachmodelle, einschließlich Deepsek R1, Openai O3-Mini und Google Gemini 2.5 Pro, obwohl der TRM weniger als 0,01 % ihrer Parametergröße beträgt. In ARXIV Paper heißt es: „Im Gegensatz zu HRM erfordert Trm keine komplexe mathematische Theorie, Hierarchie oder biologische Argumente.“

Bewertung:3

Really Note 3 – Zuverlässig; Weitere Forschung ist erforderlich | Dieser Artikel wurde kürzlich auf einer Vertrauensskala von 0 bis 5 mit 3 bewertet. Dieser Artikel scheint jedoch zuverlässig zu sein, erfordert jedoch möglicherweise eine zusätzliche Überprüfung. Es basiert auf Berichten von Nachrichten-Websites oder verifizierten Journalisten (ARXIV.org), unterstützt jedoch keine offizielle Bestätigung. Den Lesern wird empfohlen, Informationen zuverlässig zu behandeln, ihnen jedoch weiterhin zu folgen, um Aktualisierungen oder Schlussfolgerungen zu erhalten

.

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"