#11 GenAI i LLM - Wszystko, co musisz wiedzieć, zanim zaczniesz działać | Mariusz Korzekwa
Bliskie Spotkania z AI - A podcast by Krzysztof Tutak

Categories:
Tym razem moim gościem jest Mariusz Korzekwa, ekspert od #AI specjalizujący się w #promptEngineeringu i integracjach z #LLM-ami.W tym odcinku rozmawiamy o modelach językowych (LLM) i ich zastosowaniach w sztucznej inteligencji. Poruszamy temat generative AI, omawiając jego definicję oraz kluczowe różnice między LLM a klasyczną AI. Analizujemy znaczenie multimodalności, a także roli inputu i outputu w kontekście działania modeli.Dyskutujemy o istotnych aspektach modeli LLM, takich jak długość kontekstu, bezstanowość, znaczenie promptów i tokenów oraz wpływ knowledge cut-off na jakość generowanych odpowiedzi. Przyglądamy się ewolucji modeli AI, ich parametrom, wydajności oraz roli open-source w rozwoju tej technologii.W rozmowie nie zabrakło omówienia architektury LLM oraz zjawiska halucynacji – zarówno jako wyzwania, jak i potencjalnie użytecznej cechy w generowaniu treści. Skupiamy się na znaczeniu kontekstu w interakcji z modelami, a także technice RAG, pozwalającej na dynamiczne wzbogacanie kontekstu o dodatkowe informacje.Poruszamy temat benchmarków jako kluczowego elementu oceny wydajności modeli AI, podkreślając, jak ich odpowiedni dobór wpływa na skuteczność modeli w różnych zastosowaniach. Omawiamy również LLM Arena i jej rolę w testowaniu modeli oraz znaczenie kontekstu window w interakcjach z AI.Wprowadzamy pojęcie ChatML i jego wpływ na strukturyzację danych wejściowych w komunikacji z LLM. Przyglądamy się technikom inżynierii promptów, w tym metodzie Chain of Thought, oraz dobrym praktykom programowania w Pythonie, które mogą zwiększyć efektywność generowania treści.⭐️ Zobacz też:- #9 AI jako broń masowej dezinformacji? - Hodowanie umysłów i manipulacja za grosze | Piotr Brzyski https://www.youtube.com/watch?v=fhpw_5-GWHg- #5 Jakub Mrugalski - zautomatyzuj zadania, zyskaj czas na kreatywność https://www.youtube.com/watch?v=gEhMWWaXfkQ- #4 Mateusz Chrobok - jak obchodzić zabezpieczenia #AI i chronić aplikacje z sztuczną inteligencją https://www.youtube.com/watch?v=AWC6c-fOcFE🎙 Prowadzący:🔹Krzysztof Tutak - https://www.linkedin.com/in/krzysztof-tutak/🔗 Kontakt do Mariusza:👉 LinkedIn: https://www.linkedin.com/in/mariuszkorzekwa/ 👉 x: https://x.com/maledorak📚 Materiały omawiane w odcinku:👉 Prompting guide: https://www.promptingguide.ai/👉 OpenAI cookbook: https://github.com/openai/openai-cookbook👉 Anthropic cookbook: https://github.com/anthropics/anthropic-cookbook👉 How to writing prompts: https://www.reddit.com/r/WritingPrompts/👉 LM Arena: https://lmarena.ai/👉 Leaderboards: https://aider.chat/docs/leaderboards/👉 SWE bench: https://www.swebench.com/👉 Midjourney: https://www.midjourney.com/👉 Leonardo: https://leonardo.ai/👉 DALL-E: https://openai.com/index/dall-e/👉 Perplexity https://www.perplexity.ai/👉 Claude: https://claude.ai/👉 ChatGPT: https://chatgpt.com/Rozdziały:00:00 - Dziś w odcinku01:58 - Wprowadzenie03:05 - Mariusz Kokrzewka07:20 - Generative AI vs Machine Learning10:19 - Multimodalność w LLM-ach12:10 - Multimodalność w LLM-ach18:04 - Koszty związane z inputem i outputem24:06 - Kluczowe pojęcia: prompt, token, kontekst29:17 - Parametry modeli LLM i ich wpływ na jakość34:32 - Modele open source i ich zastosowanie47:29 - Kontekst i jego wpływ na jakość odpowiedzi modeli LLM54:24 - Gubienie informacji w kontekście modeli AI01:00:27 - Wybór odpowiedniego modelu do konkretnego zadania01:07:10 - Zrozumienie kontekstu window w modelach AI01:18:36 - Standardy w modelach chat ML01:32:06 - Techniki promptowania01:37:48 - Dobre praktyki pisania promptów01:47:02 - Tokenizacja i różnice językowe01:54:00 - Przykłady zastosowania LLM02:06:28 - Hiperautomatyzacja i przyszłość LLM02:13:55 - Praktyczne narzędzia w świecie AI02:19:05 - Rozpoczęcie pracy z LLM jako deweloper02:27:35 - Innowacje i możliwości dla deweloperów02:33:04 - Inspiracje i źródła wiedzy w AI02:38:52 - Zakończenie