Jak wykop tego nie nagłośni to ja już nie wiem.
Sytuacja wyjaśniona na zrzucie ekranu.

Jedna z najlepszych rzeczy w polskiej nauce jest właśnie dewastowana!

Daję link do znaleziska (z treścią bez paywalla w pierwszym komentarzu).
MatthewDuchovny - Jak wykop tego nie nagłośni to ja już nie wiem. 
Sytuacja wyjaśnion...

źródło: IMG_5399

Pobierz
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@MatthewDuchovny: Lewica (także ta polska) nie słynie z logiki w działaniu. Więc nauka polska pod długimi rządami lewicy powinna (według moich obliczeń) zmienić się w coś w rodzaju LBGT-ologii, na wzór teologii. Wcześniej był marksizm, materializm dialektyczny, a teraz jest LGBT.
  • Odpowiedz
GPT-o1 jest przekotem: https://x.com/EpochAIResearch/status/1838720157545648315

Porównanie o1 (jeden prompt) do 4o (wiele promptów, dzielenie zadania na podproblemy, iteracyjne udoskonalanie lub ocenianie wielu wersji odpowiedzi).

4o z systemem udoskonalającym zyskuje góra 5% w GPQA osiągając <55% przy tym samym zużyciu tokenów co o1.

=========
raneli - GPT-o1 jest przekotem: https://x.com/EpochAIResearch/status/1838720157545648...

źródło: GYRx2D-akAMs4xB

Pobierz
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Uśmiechnięta władza rękami rady nadzorczej zwalnia wieloletniego szefa i współtwórcę polskiego programu sztucznej inteligencji, za nim odejście zapowiadają inni naukowcy, którzy do pracy w IDEAS przyszli z np. OpenAI, a nowy prezes ma taki oto fragment w życiorysie:

Pełne kulisy zmian: ŹRÓDŁO

#ciekawostki #sztucznainteligencja #ai #it #informatyka #bekazpo
sildenafil - Uśmiechnięta władza rękami rady nadzorczej zwalnia wieloletniego szefa i...

źródło: IMG_1791

Pobierz
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

tak jest ze wszystkim, nie tylko AI: z samochodami, domami, energetyką, długo by jeszcze wymieniać. UE swoim ideologicznym biurokratyzmem odbiera smak życia w absolutnie każdej dziedzinie za jaką się weźmie.


@Romska_Palo_Ul_Laputa: UE ma dużo wyższy poziom życia nie USA.
  • Odpowiedz
@uncles: za tym akurat stoi minister z Lewicy. Jestem ciekaw czy Tusk jakkolwiek zareaguje choć większość polityków nie ma pojęcia jak ważna jest i zaraz będzie AI dla gospodarki i praktycznie wszystkich innych dziedzin życia
(ale co wymagać jak większość informatyków nie ma o tym pojęcia)
  • Odpowiedz
#codzienneainews
[1] LLM Compressor optymalizuje open-source'owe modele językowe
LLM Compressor optymalizuje open-source'owe modele językowe, zwiększając ich szybkość i redukując koszty sprzętowe. Narzędzie to łączy m.in. activation quantization z weight quantization i sparse pruningiem, customowymi kernelami (CUTLASS) zbierając różne techniki kompresji zusammen do kupy w jednym frameworku. Do tego łatwo integruje się z HF i vLLMami.

[2] MIMO: System do tworzenia realistycznych animacji postaci z kontrolą nad ruchami i sceną
Alibaba zaprezentowała narzędzie MIMO, które umożliwia tworzenie realistycznych animacji postaci w różnych scenach, gdzie użytkownik może kontrolować takie elementy jak postać, ruchy i otoczenie. MIMO działa poprzez rozdzielenie obrazu na trzy warstwy: postać, tło i obiekty na pierwszym planie, co ułatwia dokładne odwzorowanie ruchów w trójwymiarowej przestrzeni. Dzięki temu system może tworzyć animacje postaci, które poruszają się w bardziej naturalny sposób i wchodzą w interakcje z otoczeniem.
PeterWeiss - #codzienneainews
• [1] LLM Compressor optymalizuje open-source'owe model...

źródło: midjourney IterIntellectus GUI0N8uagAEzL7S

Pobierz
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 2
@coiber: Muzyka w Udio (chociaż tutaj było ciężko, mase kredytów w plecy, bo strasznie literówki robił i bełkotał), ilustracje utworzone jeszcze w Midjourney wersji 5.1 i ożywione za pomocą Runway Gen-3.
  • Odpowiedz
  • 0
@ares7: Tak dokładnych wyliczeń to nie mam :D Ale jak robisz wiele filmików to opcja Unlimited w Runwayu jest tutaj zbawieniem. Można natrzaskać sporo pod różne teledyski i potem to wykorzystać.
  • Odpowiedz
W jaki sposób robi się fine-tuning LLMa? Czytałem pobieżnie dokumentacje OpenAI i jest opisana metoda, że ładuje się "prompt" i "answer"

Co jeśli do LLMa chce załadować swoje dokumenty źródłowe - mam potencjalnie źródeł o długości kilku mln tokenów.

Są tam dokumenty źródłowe, dokumentacja, sposoby użycia - czy ja mam wszystko przerobić na JSONa "prompt":"answer"?

Polecicie
  • 7
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@hub_bub nie widzę sensu fine-tuningu pod dokumenty. Spotkałem się z paroma badaniami, które wprost wykazywały spadek efektywności LLM po małych FT.

Zamiast tego lepiej zembeddowac chunki dokumentu, skorzystać z bazy wektorowej i dorzucać do promptu jako knowledge base
  • Odpowiedz