• Najnowsze pytania
  • Bez odpowiedzi
  • Zadaj pytanie
  • Kategorie
  • Tagi
  • Zdobyte punkty
  • Ekipa ninja
  • IRC
  • FAQ
  • Regulamin
  • Książki warte uwagi

Sprzęt do odpalania modeli LLM do kodowania *lokalnie* z 128 GB RAM.

Mały hosting, OGROMNE możliwości
0 głosów
169 wizyt
pytanie zadane 29 marca w Sprzęt komputerowy przez Edd Obywatel (1,400 p.)
Ktoś wie co jest najlepsze do odpalania modeli do kodowania lokalnie:

- Apple MAC Studio z 128 GB RAM?

- mini komputery na AMD Strix Halo np 395+ z 128 GB RAM?

- komputery na GX10 jak DGX Spark też z 128 GB RAM?

 

Co byście wybrali pod LLM do kodowania? (i krótko - dlaczego akurat taki).

1 odpowiedź

+2 głosów
odpowiedź 29 marca przez Benek Szeryf (93,850 p.)
wybrane 29 marca przez Edd
 
Najlepsza
Odpowiem tak przewrotnie, myślę że nic. Jeśli nie jesteś w stanie zakodować czegoś lepiej niż lokalny LLM, to znaczy że Twoje zrozumienie inżynierii oprogramowania wymaga poprawy i lokalny LLM nie dostarczy niczego wartościowego (nie uzupełni tej luki w wiedzy). Jakieś proste przetwarzanie języka tak, ale nie kodowanie.

Jeśli chodzi o agentów AI zintegrowanych z LLM-ami, to w pracy mam dostęp do Copilota i działa to tak średnio. Mocno trzeba go kontrolować, choć na pierwszy rzut oka potrafi przetworzyć prosty prompt i dostarczyć kod natychmiast. Ale jak się bliżej przyjrzeć, to kod jest taki sobie, często trzeba go iteracyjne poprawiać.

Jedynie słyszałem, że Claude od Antrophica naprawdę daje radę w kodowanie, jednak w pracy nie mam do niego dostępu, a z wielu powodów nie chcę płacić za coś, co można wykonać samemu lub z pomocą darmowych narzędzi. Tym bardziej, że subskrypcja do tanich nie należy.
komentarz 29 marca przez Edd Obywatel (1,400 p.)

Słyszałem, że na 128 GB VRAM modele specjalizujące się wyłącznie w kodowaniu dają całkiem niezłe efekty, ale wiem to tylko z reddita czy innych forum. W praktyce nie korzystałem.

1
komentarz 29 marca przez Benek Szeryf (93,850 p.)
To jest trochę bardziej złożone. Bo generalnie jak masz na myśli LLM-a, który pomaga kodować, to chodzi o agenta/agentów AI zintegrowanych z IDE. Taki agent potrafi skanować zawartość aplikacji, nad którą pracujesz. Szukać powiązań, na przykład dla zadanego kawałka kodu napisać testy. Innymi słowy agent pod maską ma LLM-a/LLM-y, który potrafi dużo więcej niż wyprodukowanie kodu w danym języku.

W moim przypadku to jest któryś z modeli GPT 4. generacji od OpenAI, czyli model na tyle duży, że nie uruchomisz go lokalnie, bo wielokrotnie przekraczasz RAM. I z mojego doświadczenia działa to tak sobie. Uważam więc, że taki lokalny model to będzie jednak słaby pod kodowanie.

Podobne pytania

0 głosów
0 odpowiedzi 183 wizyt
pytanie zadane 28 marca w Offtop przez Edd Obywatel (1,400 p.)
0 głosów
0 odpowiedzi 110 wizyt
0 głosów
1 odpowiedź 1,041 wizyt
pytanie zadane 11 lutego 2019 w Nasze projekty przez MiszczuBD Mądrala (5,320 p.)

93,718 zapytań

142,630 odpowiedzi

323,262 komentarzy

63,265 pasjonatów

Motyw:

Akcja Pajacyk

Pajacyk od wielu lat dożywia dzieci. Pomóż klikając w zielony brzuszek na stronie. Dziękujemy! ♡

Oto polecana książka warta uwagi.
Pełną listę książek znajdziesz tutaj

Twierdza Linux. Bezpieczeństwo dla dociekliwych

Aby uzyskać rabat -10%, użyjcie kodu pasja-linux, wpisując go w specjalne pole w koszyku.

...