• UC Berkeley-Forskare Har Replikerat Deepseek R1: Null Teknik Förstärnlingsinlning För unter 30 Greenback, Vilket Visar På Avancerade Resonemang I Små Ai-Modeller.
  • Den Replikerade Modellen Har 1,5 Miljarder Parametrar Och Visar Framväxande Downside-lösningsförmågor Genom Självgeneration.
  • Kostnadseffektiviteten Och de Minskade Beräkningskraven Sänker Finansiella Barrriärer för globalt deltagande i ai-forskning.
  • Modellens Självgenererande Kapacitet Liknar Avancerade -System Som Alphago Zero, Vilket Beiler Vikten Av iterativ Förbättring Genom Simulerade Uppgifter.
  • KOSTNADSEFEFKTIVITET OCH SNABB TEKNOLGIK UTVECKLING SKAPAR MÖJLIGHETER För innovativa ai-lösiningar som kan gynna samhällen och industier globalt.

ForskningSteamet VID UC Berkeley Har Nyligen Lyckats reproduzieren und mindre Model Av Deek ai Benämnd ”Tinyzero”, För en kostnad av agrendast 30 Greenback. Detta projekt leddes av doktoranden jiayi pan och repräsentant en betydande utmaning mot de höga kostnader för ai-utveckling som de största teknikföretagen ofta påstår vara nödvändiga

Deepseek, En Kinesisk Ai-Aktör, Har Redan Gjort Avtryck På Branschen Med Sünde R1-Modell Som Utmanar Openai: S Chatgpt Genom att erbjuda liknande Kapabiliteter bis en bråkdel av kostnaden. Berkeley-Teamets Repliking Av Deek R1-Zero Visar ATT DEMR MOJLIGT ATT SKAPA AVANCERADE AI-MODELLER För en Bråkdel Av Kostnaderna Som Stora Förretag Rapporterar.

För att Ge Lite Sammanhang, Openai Tar $ 15 $ professional Miljon -Token über SITT API Vid Tidpunkten För Denna Textual content, Medan Deek Erbjuder Ett Mycket Längige Pris På $ 0,55 professional Miljon Tokens. Berkeley-Teamets UPPPKTER TYDER På ATT MYCKET KAPABLA AI-MODELLER KAN UTVECKLAS För en Bråkdel av KOSTNADEN SOM LEDANDE AI-FÖRETAG För Närvarande Investerar. Trots Hur Billigt Det är

De lyckades Återskapa Deepseek R1-Zeros Metoder För unter 30 Greenback. Deras modell med 1,5 Miljarder Parametrar Uppvisade Avancerade Resonemangsfärdigheter. Prestandan Var Jämförbar Med Större AI-System. Genombrott inom förstärkningsinläring Forskarna började med en grundläggande Språkmodell, en strukturerad immediate och en sanningsenlig Belöning. De Introtcerade Limousine Förstärkningsinlärning Genom Countdown, Ett Logikbaserat Spel Som Anpassats Från Ett Brittiklot TV-Program.

I Denna Utmaning Måste Spelarna nå ett Måltal Genom att Använder Aritmetiska-Operation-en upstälring som upmuntrar ai-modeller att förfina sina resonemangsfärdighereter. Bis en början Producerade Ai: n Slumpmässisiga Svar.

Genom Försök och Mis -Abteilung Började Den Verifiera Sina Egna Svar och justera sin naps med varje iteration – vilket speglar hurmnisniskor löser Downside. Även der minsta modellen med 0,5 Miljarder Parametrar Kunde Bara Göra Enkla Gissningar, Männer, die Skalades bis 1,5 Miljarder och Mer Började ai: n Uppvisa Mer Avancerat Resonemang. ”Vi Återskapade Deepseek R1-Zero I Countdown-Spelent, Och det Fungerade Helt Enkelt.“

https://github.com/jiyi-pan/tinyzero

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert