<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>strojové učení - Hard Wired</title>
	<atom:link href="https://www.hardwired.dev/tag/strojove-uceni/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.hardwired.dev</link>
	<description></description>
	<lastBuildDate>Fri, 03 Apr 2026 20:55:06 +0000</lastBuildDate>
	<language>cs</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.hardwired.dev/wp-content/uploads/2022/10/android-chrome-256x256-1-150x150.png</url>
	<title>strojové učení - Hard Wired</title>
	<link>https://www.hardwired.dev</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Průvodce modely Claude od Anthropic</title>
		<link>https://www.hardwired.dev/2026/03/11/pruvodce-modely-claude-od-anthropic/</link>
		
		<dc:creator><![CDATA[Valentino Hesse OK2HSS]]></dc:creator>
		<pubDate>Wed, 11 Mar 2026 15:26:11 +0000</pubDate>
				<category><![CDATA[AI]]></category>
		<category><![CDATA[agentic AI]]></category>
		<category><![CDATA[AI asistent]]></category>
		<category><![CDATA[AI models comparison]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[api]]></category>
		<category><![CDATA[API pricing]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[chatbot]]></category>
		<category><![CDATA[claude]]></category>
		<category><![CDATA[claude ai]]></category>
		<category><![CDATA[coding assistant]]></category>
		<category><![CDATA[extended thinking]]></category>
		<category><![CDATA[generativní AI]]></category>
		<category><![CDATA[Haiku]]></category>
		<category><![CDATA[jazykové modely]]></category>
		<category><![CDATA[kódování]]></category>
		<category><![CDATA[kontextové okno]]></category>
		<category><![CDATA[large language models]]></category>
		<category><![CDATA[LLM]]></category>
		<category><![CDATA[machine learning]]></category>
		<category><![CDATA[neural networks]]></category>
		<category><![CDATA[neuronové sítě]]></category>
		<category><![CDATA[Opus]]></category>
		<category><![CDATA[programování]]></category>
		<category><![CDATA[prompt engineering]]></category>
		<category><![CDATA[Sonnet]]></category>
		<category><![CDATA[strojové učení]]></category>
		<category><![CDATA[tokenizace]]></category>
		<category><![CDATA[umela inteligence]]></category>
		<guid isPermaLink="false">https://www.hardwired.dev/?p=2968</guid>

					<description><![CDATA[<p>Průvodce modely Claude od Anthropic Úvod Anthropic je americká firma, která se zabývá vývojem bezpečné AI - jejich hlavní produkt &#62;&#62;&#62;</p>
<p>The post <a href="https://www.hardwired.dev/2026/03/11/pruvodce-modely-claude-od-anthropic/">Průvodce modely Claude od Anthropic</a> first appeared on <a href="https://www.hardwired.dev">Hard Wired</a>.</p>]]></description>
										<content:encoded><![CDATA[<div id="bsf_rt_marker"></div><h1>Průvodce modely Claude od Anthropic</h1>
<h2>Úvod</h2>
<p>Anthropic je americká firma, která se zabývá vývojem bezpečné AI - jejich hlavní produkt je rodina jazykových modelů Claude, v současnosti jedny z nejpokročilejších AI asistentů na trhu, které mají tři hlavní úrovně: <strong>Opus</strong>, <strong>Sonnet</strong> a <strong>Haiku</strong>. Když jsem poprvé začal s těmito modely pracovat, upřímně jsem nevěděl který kdy použít - všechny vypadaly podobně, ale rozdíly v kvalitě výstupu a ceně byly obrovské. V tomhle článku si projdeme co který model umí, kdy ho použít a proč, a sdílím zkušenosti z reálných projektů kde jsem každý z nich testoval.</p>
<hr />
<h2>Architektura rodiny Claude</h2>
<p>Anthropic postavil třístupňovou hierarchii modelů, kde každá úroveň má svoje místo:</p>
<table>
<thead>
<tr>
<th>Model</th>
<th>Charakteristika</th>
<th>Primární využití</th>
</tr>
</thead>
<tbody>
<tr>
<td><strong>Opus</strong></td>
<td>Nejinteligentnější, nejhlubší uvažování</td>
<td>Komplexní analýzy, výzkum, náročné programování</td>
</tr>
<tr>
<td><strong>Sonnet</strong></td>
<td>Vyvážený výkon a rychlost</td>
<td>Každodenní práce, kódování, většina úloh</td>
</tr>
<tr>
<td><strong>Haiku</strong></td>
<td>Nejrychlejší, nejlevnější</td>
<td>Real-time aplikace, vysoký objem dotazů</td>
</tr>
</tbody>
</table>
<p>Všechny modely používají Constitutional AI framework pro bezpečnost a mají kontextové okno 200 000 tokenů (zhruba 150 000 slov), což v praxi znamená že můžeš nahrát celou kódovou bázi menšího projektu nebo technickou knihu a model si pamatuje všechno. Novější verze Opus a Sonnet nabízejí experimentální podporu až 1 milion tokenů - zkoušel jsem to s kompletní dokumentací ESP-IDF frameworku a fungovalo to překvapivě dobře, i když latence byla znatelně vyšší.</p>
<hr />
<h2>Claude Opus — hluboký myslitel</h2>
<h3>Co je Opus?</h3>
<p>Opus je top tier model od Anthropic - navržený pro úlohy kde potřebuješ hluboké analytické uvažování, komplexní vícekrokové plánování, pokročilé programování a refaktoring, nebo práci s rozsáhlými kontexty jako jsou celé knihy nebo velké kódové báze. Když jsem poprvé testoval Opus na code review komplexní Flask aplikace s asynchronními tasky a Celery workers, byl jsem fascinovaný tím, jak model dokázal propojit souvislosti mezi moduly které byly od sebe vzdálené stovky řádků kódu a identifikovat potenciální race condition, kterou jsem já sám přehlédl.</p>
<h3>Kdy použít Opus?</h3>
<p><strong>Ideální scénáře:</strong></p>
<ol>
<li><strong>Code review před nasazením</strong> — Opus zachytí subtilní chyby jako memory leaky, async bugy nebo chybějící dispose volání, které ostatní modely přehlédnou</li>
<li><strong>Architektonická rozhodnutí</strong> — Při návrhu systémové architektury nebo rozsáhlém refaktoringu</li>
<li><strong>Výzkum a analýza</strong> — Sumarizace celých knih, analýza právních dokumentů, finanční modelování</li>
<li><strong>Agentické workflow</strong> — Dlouhodobé autonomní úlohy vyžadující vícekrokové uvažování</li>
</ol>
<h3>Praktický příklad</h3>
<pre><code>Scénář: Máš komplexní Flask aplikaci s 50+ soubory a potřebuješ identifikovat 
bezpečnostní zranitelnosti.

Proč Opus: Model dokáže udržet kontext celé aplikace, propojit souvislosti mezi 
moduly a identifikovat zranitelnosti typu race condition nebo injection attacks, 
které vyžadují pochopení toku dat napříč celým systémem.</code></pre>
<h3>Cena</h3>
<table>
<thead>
<tr>
<th>Typ</th>
<th>Cena za milion tokenů</th>
</tr>
</thead>
<tbody>
<tr>
<td>Vstupní tokeny</td>
<td>$5</td>
</tr>
<tr>
<td>Výstupní tokeny</td>
<td>$25</td>
</tr>
</tbody>
</table>
<p>Opus 4.5 přinesl výrazné zlevnění oproti předchozím verzím (Opus 4/4.1 stál $15/$75), což zpřístupnilo prémiovou inteligenci širšímu spektru uživatelů - upřímně, při těch starých cenách jsem Opus používal jen na kritické review před nasazením do produkce, protože každý delší prompt stál dost peněz. Teď s novými cenami je to mnohem dostupnější, i když pořád ne na každodenní použití pokud máš omezený budget.</p>
<hr />
<h2>Claude Sonnet — spolehlivý kolega</h2>
<h3>Co je Sonnet?</h3>
<p>Sonnet je vyvážený model - kombinuje vysokou inteligenci s rozumnou rychlostí a cenou, což z něj dělá ideální volbu pro většinu každodenní práce. Většina vývojářů tráví s tímhle modelem nejvíc času, a já nejsem výjimka - odhadem 80 % mých promptů jde na Sonnet, protože pro běžné programování, refaktoring nebo psaní dokumentace je naprosto dostačující a odpovídá rychle.</p>
<h3>Kdy použít Sonnet?</h3>
<p><strong>Ideální scénáře:</strong></p>
<ol>
<li><strong>Každodenní programování</strong> — Vývoj funkcí, práce s více soubory, správa stavu, připojení k API</li>
<li><strong>Analýza a reporting</strong> — Strukturované analýzy, Q&amp;A s dokumenty, vytváření reportů</li>
<li><strong>Kreativní úlohy</strong> — Psaní obsahu, copywriting, technická dokumentace</li>
<li><strong>Orchestrace agentů</strong> — Sonnet vytvoří plán a rozdělí úkoly pro Haiku instance</li>
</ol>
<h3>Praktický příklad</h3>
<pre><code>Scénář: Vyvíjíš React aplikaci s Tailwind CSS a potřebuješ implementovat
autentizaci s Firebase.

Proč Sonnet: Model zvládne multi-file logiku, správu stavu (Riverpod, Redux),
připojení k Firebase a generuje čistý, použitelný kód. Má vynikající výkon
v oblasti frontend/UI vývoje a generuje „pixel-perfect layouts&quot;.

Osobní zkušenost: Když jsem dělal redesign jednoho projektu s Flutter a Material 3,
Sonnet mi vygeneroval kompletní theme configuration včetně custom color schemes
a typography - kód fungoval na první pokus, což mě docela překvapilo protože
Material 3 API je dost komplexní a čekal jsem že budu muset něco ladit.</code></pre>
<h3>Cena</h3>
<table>
<thead>
<tr>
<th>Typ</th>
<th>Cena za milion tokenů</th>
</tr>
</thead>
<tbody>
<tr>
<td>Vstupní tokeny</td>
<td>$3</td>
</tr>
<tr>
<td>Výstupní tokeny</td>
<td>$15</td>
</tr>
</tbody>
</table>
<p>Sonnet nabízí výkon blížící se Opusu za zlomek ceny, což z něj dělá optimální volbu pro 90 % produkčních úloh - a tady je důležité si uvědomit že rozdíl mezi Sonnetem a Opusem není vždycky tak velký jak by se podle ceny mohlo zdát, takže pokud nejdeš do opravdu komplexních analýz nebo kritického code review, Sonnet ti bude stačit.</p>
<hr />
<h2>Claude Haiku — rychlý sprinter</h2>
<h3>Co je Haiku?</h3>
<p>Haiku je nejrychlejší a nejlevnější model v rodině Claude - optimalizovaný pro minimální latenci (odpovědi pod sekundu), vysoký objem dotazů a nákladovou efektivitu. Upřímně, nejdřív jsem Haiku podceňoval a myslel si že je to jen &quot;levná verze&quot; pro lidi co chtějí ušetřit, ale když jsem ho začal používat na rychlé prototypování UI komponent, zjistil jsem že pro tento konkrétní use case je vlastně lepší než Sonnet - odpovídá skoro okamžitě a pro jednoduchý layout kód je kvalita naprosto dostačující.</p>
<h3>Kdy použít Haiku?</h3>
<p><strong>Ideální scénáře:</strong></p>
<ol>
<li><strong>Chatboti a zákaznická podpora</strong> — Real-time odpovědi bez čekání</li>
<li><strong>UI prototypování</strong> — Rychlé generování layoutů a komponent</li>
<li><strong>Klasifikace a moderace obsahu</strong> — Vysokoobjemové úlohy</li>
<li><strong>Paralelní provádění subtasků</strong> — V orchestrovaném workflow s Sonnetem</li>
</ol>
<h3>Praktický příklad</h3>
<pre><code>Scénář: Potřebuješ rychle vytvořit Flutter screen s Material 3 designem.

Proč Haiku: Model vygeneruje layout téměř okamžitě. Pro brainstorming a rychlé
prototypy je ideální volbou. Ale pozor — v delších sessions „ztrácí nit&quot;
a není vhodný pro komplexní logické stavby.

Osobní zkušenost: Zkoušel jsem s Haiku dělat složitější state management
s Riverpod providers a po třech čtyřech iteracích začal generovat kód který
nedával smysl - zapomínal na kontext z předchozích promptů a navrhoval řešení
která byla v rozporu s tím co jsme dělali předtím. Pro jednoduché úlohy super,
ale na komplexní logiku radši Sonnet.</code></pre>
<h3>Cena</h3>
<table>
<thead>
<tr>
<th>Typ</th>
<th>Cena za milion tokenů</th>
</tr>
</thead>
<tbody>
<tr>
<td>Vstupní tokeny</td>
<td>$1</td>
</tr>
<tr>
<td>Výstupní tokeny</td>
<td>$5</td>
</tr>
</tbody>
</table>
<p>Haiku je 5× levnější než Opus na vstupních tokenech, což z něj dělá ekonomickou volbu pro vysokoobjemové scénáře - pokud děláš chatbota nebo zákaznickou podporu kde potřebuješ zpracovat tisíce dotazů denně, rozdíl v ceně mezi Haiku a Sonnetem se rychle nasčítá na stovky dolarů měsíčně.</p>
<hr />
<h2>Srovnávací tabulka modelů</h2>
<table>
<thead>
<tr>
<th>Vlastnost</th>
<th>Opus 4.5</th>
<th>Sonnet 4.5</th>
<th>Haiku 4.5</th>
</tr>
</thead>
<tbody>
<tr>
<td><strong>Inteligence</strong></td>
<td>Nejvyšší</td>
<td>Vysoká</td>
<td>Dobrá</td>
</tr>
<tr>
<td><strong>Rychlost</strong></td>
<td>Pomalejší</td>
<td>Střední</td>
<td>Nejrychlejší</td>
</tr>
<tr>
<td><strong>Cena (vstup/výstup)</strong></td>
<td>$5/$25</td>
<td>$3/$15</td>
<td>$1/$5</td>
</tr>
<tr>
<td><strong>Kontextové okno</strong></td>
<td>200K (1M beta)</td>
<td>200K (1M beta)</td>
<td>200K</td>
</tr>
<tr>
<td><strong>Max. výstup</strong></td>
<td>64K tokenů</td>
<td>64K tokenů</td>
<td>32K tokenů</td>
</tr>
<tr>
<td><strong>Extended Thinking</strong></td>
<td>✓</td>
<td>✓</td>
<td>✓</td>
</tr>
<tr>
<td><strong>SWE-bench skóre</strong></td>
<td>80.9%</td>
<td>77.2%</td>
<td>73.3%</td>
</tr>
</tbody>
</table>
<hr />
<h2>Orchestrační workflow — jak modely kombinovat</h2>
<p>Když pracuješ na větším projektu, dává smysl kombinovat modely podle jejich silných stránek - tohle je něco co jsem se naučil až po pár měsících práce s Claude, protože na začátku jsem používal jen Sonnet na všechno a nevěděl jsem že můžu ušetřit čas i peníze tím že rozdělím úlohy mezi modely strategicky.</p>
<h3>Fáze 1: Plánování (Sonnet)</h3>
<p>Sonnet analyzuje požadavky, navrhuje architekturu a rozděluje úkoly na paralelizovatelné podúlohy.</p>
<h3>Fáze 2: Implementace (Haiku)</h3>
<p>Více instancí Haiku provádí subtasky paralelně — scaffolding, komponenty, API integrace.</p>
<h3>Fáze 3: Review (Opus)</h3>
<p>Před mergem provede Opus hlubokou revizi — zachytí async bugy, memory leaky a subtilní logické chyby.</p>
<pre><code>Příklad z praxe:

Developer pracuje na mobilní aplikaci:
1. Používá Haiku pro rychlé UI prototypy
2. Přepne na Sonnet pro implementaci business logiky
3. Před releasem nechá Opus udělat finální code review

Výsledek: Opus odhalil rebuild issues a chybějící disposes,
které Haiku i Sonnet přehlédly.

Moje zkušenost: Přesně tenhle workflow jsem použil na jednom Flutter projektu
kde jsem dělal aplikaci pro správu IoT zařízení. Haiku mi vygeneroval asi 15
různých screen layoutů za pár minut, Sonnet implementoval komunikaci s MQTT
brokerem a state management, a Opus pak při finálním review našel memory leak
v subscription handleru který by v produkci způsobil problémy - model si všiml
že StreamSubscription není správně disposed při dispose() widgetu, což by
vedlo k postupnému nárůstu paměti. Tohle by Sonnet pravděpodobně přehlédl.</code></pre>
<hr />
<h2>Rozhodovací strom: Který model zvolit?</h2>
<pre><code>START
  │
  ├── Je úloha časově kritická (real-time)?
  │     └── ANO → HAIKU
  │
  ├── Je to rutinní práce (coding, analýza, psaní)?
  │     └── ANO → SONNET
  │
  ├── Vyžaduje hluboké uvažování nebo rozsáhlý kontext?
  │     └── ANO → OPUS
  │
  ├── Je to finální review před nasazením?
  │     └── ANO → OPUS
  │
  └── Nejste si jistí?
        └── Začněte se SONNET, eskalujte na OPUS při potřebě</code></pre>
<hr />
<h2>Cenové předplatné pro běžné uživatele</h2>
<p>Pro ty, kteří nepoužívají API, nabízí Anthropic předplatné:</p>
<table>
<thead>
<tr>
<th>Plán</th>
<th>Cena</th>
<th>Co zahrnuje</th>
</tr>
</thead>
<tbody>
<tr>
<td><strong>Free</strong></td>
<td>$0</td>
<td>Základní přístup k Haiku, omezené využití</td>
</tr>
<tr>
<td><strong>Pro</strong></td>
<td>$20/měsíc</td>
<td>Přístup k Opus i Sonnet, vyšší limity, Claude Code</td>
</tr>
<tr>
<td><strong>Max</strong></td>
<td>$100-200/měsíc</td>
<td>Výrazně vyšší limity, prioritní přístup</td>
</tr>
</tbody>
</table>
<hr />
<h2>Praktické tipy pro optimalizaci nákladů</h2>
<h3>1. Začni s Haiku, eskaluj nahoru</h3>
<p>Pro většinu dotazů postačí Haiku - na Sonnet nebo Opus přepni pouze pro složitější úlohy, což ti ušetří peníze a zároveň nezpomalí workflow, protože Haiku odpovídá tak rychle že rozdíl v latenci je znatelný.</p>
<h3>2. Využij Prompt Caching</h3>
<p>Při opakovaném dotazování na stejný kontext (např. velký dokument) snížíš náklady až o 90 % - tohle je obrovská úspora pokud pracuješ s rozsáhlou kódovou bází nebo dokumentací, protože model si cachuje kontext a při dalších dotazech ho nemusí znovu zpracovávat. Zkoušel jsem to s dokumentací k ESP-IDF a rozdíl v ceně byl dramatický - první prompt stál normálně, ale následující dotazy byly skoro zadarmo.</p>
<h3>3. Batch API pro neurgentní úlohy</h3>
<p>Asynchronní zpracování přes Batch API poskytuje 50% slevu na tokeny.</p>
<h3>4. Optimalizuj prompty</h3>
<p>Každý token stojí peníze. Odstraň zbytečný kontext a buď konkrétní.</p>
<hr />
<h2>Závěr</h2>
<p>Každý model v rodině Claude má svoje místo:</p>
<ul>
<li><strong>Opus</strong> je senior architekt — pomalejší, ale nejspolehlivější pro kritické rozhodnutí a hluboké analýzy</li>
<li><strong>Sonnet</strong> je spolehlivý kolega — zvládne 90 % každodenní práce kvalitně a efektivně, což z něj dělá můj go-to model</li>
<li><strong>Haiku</strong> je rychlý junior — ideální pro opakované úlohy a prototypování, překvapivě schopný pokud víš jak ho použít</li>
</ul>
<p>Nejde o to používat jeden model na všechno. Jde o to strategicky kombinovat jejich silné stránky podle toho, co zrovna potřebuješ - a tohle pochopení přišlo až s praxí, protože na začátku jsem dělal chybu že jsem používal Sonnet i na úlohy kde by Haiku stačil, nebo naopak jsem se snažil ušetřit a používal Sonnet na code review kde by Opus odvedl mnohem lepší práci. Teď po několika měsících práce s těmito modely mám docela dobrý cit kdy který použít, a doufám že tento článek ti pomůže zkrátit tu learning curve.</p>
<hr />
<h2>Zdroje a další čtení</h2>
<ul>
<li><a href="https://docs.anthropic.com">Anthropic dokumentace</a></li>
<li><a href="https://claude.ai">Claude.ai</a></li>
<li><a href="https://claude.com/pricing">API cenový přehled</a></li>
</ul>
<hr />
<p><em>Pro opravu diakritiky a překlepů byl použit model Claude Sonnet 4.5.</em></p>
<p><em>Článek aktualizován: březen 2026</em></p>

<div class="twitter-share"><a href="https://twitter.com/intent/tweet?url=https%3A%2F%2Fwww.hardwired.dev%2F2026%2F03%2F11%2Fpruvodce-modely-claude-od-anthropic%2F&#038;via=hessevalentino&#038;related=hessevalentino%3AValentino%20Hesse%20OK2HSS" class="twitter-share-button">Tweet</a></div><p>The post <a href="https://www.hardwired.dev/2026/03/11/pruvodce-modely-claude-od-anthropic/">Průvodce modely Claude od Anthropic</a> first appeared on <a href="https://www.hardwired.dev">Hard Wired</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Glosář AI a LLM termínů</title>
		<link>https://www.hardwired.dev/2026/03/06/glosar-ai-a-llm-terminu/</link>
		
		<dc:creator><![CDATA[Valentino Hesse OK2HSS]]></dc:creator>
		<pubDate>Fri, 06 Mar 2026 22:05:04 +0000</pubDate>
				<category><![CDATA[AI]]></category>
		<category><![CDATA[Agentic RAG]]></category>
		<category><![CDATA[Attention]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[chunking]]></category>
		<category><![CDATA[embeddings]]></category>
		<category><![CDATA[evaluace RAG]]></category>
		<category><![CDATA[Few Shot Learning]]></category>
		<category><![CDATA[fine-tuning]]></category>
		<category><![CDATA[GPT]]></category>
		<category><![CDATA[halucinace LLM]]></category>
		<category><![CDATA[HHEM]]></category>
		<category><![CDATA[hybridní vyhledávání]]></category>
		<category><![CDATA[inference]]></category>
		<category><![CDATA[LLM]]></category>
		<category><![CDATA[Mamba]]></category>
		<category><![CDATA[MMR]]></category>
		<category><![CDATA[neurální vyhledávání]]></category>
		<category><![CDATA[NLP]]></category>
		<category><![CDATA[open-source LLM]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[prompt engineering]]></category>
		<category><![CDATA[RAG]]></category>
		<category><![CDATA[reranking]]></category>
		<category><![CDATA[sémantické vyhledávání]]></category>
		<category><![CDATA[strojové učení]]></category>
		<category><![CDATA[tokenizace]]></category>
		<category><![CDATA[transfer learning]]></category>
		<category><![CDATA[Transformer]]></category>
		<category><![CDATA[umela inteligence]]></category>
		<category><![CDATA[vektorová databáze]]></category>
		<category><![CDATA[vektorové reprezentace]]></category>
		<category><![CDATA[vektorové úložiště]]></category>
		<category><![CDATA[velké jazykové modely]]></category>
		<category><![CDATA[vysvětlitelnost]]></category>
		<guid isPermaLink="false">https://www.hardwired.dev/?p=2965</guid>

					<description><![CDATA[<p>Glosář AI a LLM termínů Úvod Svět a příslib umělé inteligence, zejména velkých jazykových modelů (LLM), přináší nadšení a možnosti. &#62;&#62;&#62;</p>
<p>The post <a href="https://www.hardwired.dev/2026/03/06/glosar-ai-a-llm-terminu/">Glosář AI a LLM termínů</a> first appeared on <a href="https://www.hardwired.dev">Hard Wired</a>.</p>]]></description>
										<content:encoded><![CDATA[<div id="bsf_rt_marker"></div><h1>Glosář AI a LLM termínů</h1>
<h2>Úvod</h2>
<p>Svět a příslib umělé inteligence, zejména velkých jazykových modelů (LLM), přináší nadšení a možnosti. Přináší také novou terminologii, které je třeba porozumět.</p>
<p>Tento glosář se zaměřuje na AI, RAG a velké jazykové modely, aby vám pomohl rychle zvládnout koncepty strojového učení.</p>
<hr />
<h2>Agentic RAG</h2>
<p>Agentic RAG je přístup k vytváření AI asistentů a agentů pomocí LLM, který zahrnuje komplexní uvažování, vícekrokové plánování, volání funkcí a používání nástrojů.</p>
<p>Hlavní výhoda Agentic RAG spočívá ve schopnosti volat nástroje pro vyhledávání informací a provádění úkolů.</p>
<p>Například pokud požádáte AI asistenta postaveného na Agentic RAG o porovnání příjmů Apple a Microsoft v roce 2022, může analyzovat dotaz a dvakrát zavolat nástroj pro finanční výkazy – jednou pro Apple a jednou pro Microsoft. Poté sloučí výsledky obou volání a vytvoří požadovanou odpověď.</p>
<hr />
<h2>Attention (Pozornost)</h2>
<p>Mechanismy pozornosti ve velkých jazykových modelech (LLM) jsou základní komponenty, které těmto modelům umožňují efektivněji zpracovávat a rozumět textu. Byly představeny Vaswani et al. v článku &quot;Attention is All You Need&quot;.</p>
<p>Klíčovou inovací je self-attention (sebe-pozornost), kde model vypočítává skóre pozornosti mezi každým párem tokenů ve vstupní sekvenci. Tato skóre určují, kolik pozornosti věnovat každému tokenu při generování výstupu.</p>
<p>Mechanismy pozornosti byly klíčové pro pokrok v NLP a pohánějí aplikace jako strojový překlad a chatboty.</p>
<hr />
<h2>ChatGPT</h2>
<p>ChatGPT je konverzační chatbot vyvinutý společností OpenAI. Je založen na architektuře GPT (Generative Pre-trained Transformer), což je typ modelu hlubokého učení navržený k porozumění a generování textu podobného lidskému.</p>
<p>Základní technologií ChatGPT je neuronová síť typu transformer, která se vyznačuje mechanismem self-attention.</p>
<p>Jednou z výrazných vlastností ChatGPT je schopnost vést otevřené konverzace s uživateli. Na rozdíl od mnoha jiných chatbotů, které fungují na základě předdefinovaných pravidel, ChatGPT dynamicky generuje odpovědi na základě vstupu.</p>
<p>Je důležité poznamenat, že ChatGPT není neomylný – spoléhá na trénovací data a může někdy produkovat nepřesné odpovědi (tzv. halucinace).</p>
<hr />
<h2>Chunking (Dělení na části)</h2>
<p>Chunking je proces používaný ke zvýšení efektivity a přesnosti vyhledávání informací v NLP úlohách. V RAG je vstupní text rozdělen na menší, zvládnutelné jednotky nazývané &quot;chunky&quot;. Tyto chunky mohou být věty, odstavce nebo jiné specifické rozdělení většího textu.</p>
<p><strong>Účel chunkingu:</strong></p>
<ul>
<li><strong>Efektivita:</strong> Práce s menšími chunky zrychluje proces vyhledávání a vyžaduje méně výpočetního výkonu.</li>
<li><strong>Přesnost:</strong> Chunky poskytují cílenější informace, snižují šum a zlepšují relevanci získaných dat.</li>
<li><strong>Škálovatelnost:</strong> Chunking umožňuje systému efektivněji zpracovávat větší dokumenty.</li>
</ul>
<p>V RAG je po chunkování každý chunk indexován a uložen v retrieval systému (jako text i jako embedding vektor).</p>
<hr />
<h2>Embeddings (Vektorové reprezentace)</h2>
<p>V kontextu LLM jsou vektorové embeddingy typem reprezentace, která zachycuje sémantický význam nebo kontext slov či vět v kompaktní formě. Jsou to v podstatě vektory reálných čísel, kde každá dimenze může reprezentovat jinou vlastnost zachycující něco o významu daného konceptu.</p>
<p>Vektorové embeddingy jsou také známé jako &quot;husté reprezentace&quot; (dense representations), na rozdíl od tradičnějších &quot;řídkých reprezentací&quot; (sparse representations).</p>
<p><strong>Typy embeddingů:</strong></p>
<ul>
<li><strong>Word embeddings:</strong> mapují každé slovo na vektorový embedding</li>
<li><strong>Sentence embeddings:</strong> mapují celou větu, odstavec nebo jakýkoli textový chunk do vektorového embeddingu</li>
</ul>
<p>Vektorové embeddingy slouží jako vstup pro různé NLP úlohy jako klasifikace textu, analýza sentimentu nebo strojový překlad.</p>
<hr />
<h2>Explainability (Vysvětlitelnost)</h2>
<p>Ve světě RAG vysvětlitelnost znamená, že systém může ukázat přesně, jak dospěl ke své odpovědi, včetně odkazů na původní zdroje.</p>
<p>Namísto toho, abyste přemýšleli, odkud informace pochází, systém může poskytnout jasné reference nebo citace, podobně jako poznámky pod čarou, takže si můžete detaily ověřit sami.</p>
<p>Tento transparentní přístup buduje důvěru a pomáhá porozumět uvažování za odpovědí.</p>
<hr />
<h2>Few Shot Learning</h2>
<p>V kontextu LLM se koncept few shot learning vztahuje na schopnost poskytnout LLM příklady úkolu, který chcete provést, a tím zlepšit jeho výkon.</p>
<p><strong>Zero shot příklad:</strong><br />
&quot;Přelož následující z angličtiny do francouzštiny: How are you today?&quot;</p>
<p><strong>Few shot příklad:</strong><br />
&quot;Přelož následující z angličtiny do francouzštiny:</p>
<ol>
<li>Hello → Bonjour</li>
<li>Goodbye → Au revoir<br />
Přelož: How are you today?&quot;</li>
</ol>
<p>V druhém případě poskytujeme dva příklady dobrého překladu, čímž pomáháme modelu lépe splnit požadovaný úkol.</p>
<hr />
<h2>Fine-tuning (Doladění)</h2>
<p>Fine-tuning je způsob provádění transfer learningu. Při fine-tuningu vezmete předtrénovaný model a pokračujete v jeho trénování na specifickém (obvykle menším) datasetu.</p>
<p><strong>Běžné techniky fine-tuningu:</strong></p>
<ul>
<li>Pokračování v tréninku celé neuronové sítě na specifickém datasetu</li>
<li>Zmrazení některých vrstev a trénování ostatních</li>
<li>Přidání nové vrstvy pro nový typ úkolu a trénování pouze této vrstvy</li>
</ul>
<p>Fine-tuning je mnohem méně komplikovaný a výrazně levnější úkol než plné trénování LLM.</p>
<p>Nedávno byly navrženy techniky jako LORA (low-rank-adaptation), které fine-tuning ještě zrychlují a zlevňují při zachování podobného výkonu.</p>
<hr />
<h2>GPTs (Vlastní GPT)</h2>
<p>V listopadu 2023 OpenAI představila možnost uživatelů nebo vývojářů vytvářet vlastní verze ChatGPT. Tato schopnost je zaměřena na relativně malé přizpůsobení, umožňující konfigurovat vlastní GPT s určitým tónem hlasu, hledáním na webu a až 20 PDF dokumenty.</p>
<p>GPT jsou nejlepší pro malá přizpůsobení GPT a nejsou ideálním řešením pro enterprise případy s tisíci nebo miliony dokumentů, kde škálovatelná RAG řešení zůstávají doporučeným přístupem.</p>
<hr />
<h2>LLM Hallucinations (Halucinace LLM)</h2>
<p>Když LLM generuje text, který je nesmyslný nebo nevěrný poskytnutému zdrojovému obsahu, často říkáme, že tento obsah je halucinace LLM (také nazývaná fabrication).</p>
<p><strong>Halucinace LLM nastávají ze dvou hlavních důvodů:</strong></p>
<ol>
<li>
<p>Ptáte se na otázku, na kterou odpověď není LLM &quot;známa&quot; (tj. není dostupná v jeho trénovacích datech). V tomto případě LLM může odpovědět špatnou odpovědí.</p>
</li>
<li>
<p>Odpověď na vaši otázku je LLM &quot;známa&quot;, ale obsahuje fiktivní obsah nebo obsah, který je subjektivní jako názory a přesvědčení.</p>
</li>
</ol>
<hr />
<h2>HHEM</h2>
<p>HHEM (Hughes Hallucination Evaluation Model) je open source klasifikační model dostupný na HuggingFace, který lze použít k detekci halucinací.</p>
<p>Je zvláště užitečný v kontextu budování RAG aplikací, kde je sada faktů sumarizována LLM, ale model lze použít i v jiných kontextech.</p>
<p>HHEM se také používá k hodnocení LLM podle jejich celkové pravděpodobnosti halucinovat tímto způsobem.</p>
<hr />
<h2>Hybrid Search (Hybridní vyhledávání)</h2>
<p>Sémantické vyhledávání poskytuje fantastický přístup k získávání relevantních výsledků, ale není dokonalé. Existují případy, zejména u jednoslovných dotazů hledajících informace o konkrétním produktu, kde tradiční vyhledávání na základě klíčových slov funguje lépe.</p>
<p>Hybridní vyhledávání se pokouší kombinovat sémantické vyhledávání s tradičním vyhledáváním na základě klíčových slov, využívající přesnost keyword vyhledávání s kontextovým porozuměním sémantického vyhledávání.</p>
<p>Kombinací obou metod nabízí hybridní vyhledávání nuancovanější a efektivnější přístup k vyhledávání informací.</p>
<hr />
<h2>LLM Inference (Inference LLM)</h2>
<p>Inference je operace, při které generujete text s generativním LLM. Vstupem je sekvence tokenů a výstupem je další předpovězený token. Pokud chcete generovat celou sekvenci, generujete jeden token po druhém.</p>
<p>Inference s LLM je stochastická operace a nemusí pokaždé generovat stejný výsledek.</p>
<p><strong>Parametry ovládající inferenci:</strong></p>
<ul>
<li>
<p><strong>Temperature:</strong> Ovládá, jak randomizovaná je odpověď. Při temp=0 je odpověď deterministická (LLM vždy volí token s nejvyšší pravděpodobností), zatímco vyšší hodnoty vedou k více randomizovaným výsledkům.</p>
</li>
<li>
<p><strong>Top_p a top_k:</strong> Dva mechanismy pro výběr dalšího tokenu.</p>
<ul>
<li>Top_k je celočíselná hodnota určující délku top tokenů k zvážení</li>
<li>Top_p pracuje podobně, ale vybírá top N tokenů tak, aby jejich kumulativní pravděpodobnost byla rovna nebo vyšší než hodnota top_p (0…1)</li>
</ul>
</li>
</ul>
<hr />
<h2>Large Language Model (LLM) - Velký jazykový model</h2>
<p>Velký jazykový model (LLM) je neuronová síť trénovaná k porozumění jazyku a může být použita pro různé úkoly jako sumarizace, překlad, predikce a generování textu. LLM je trénován na masivních textových datasetech jako Common Crawl, WebText2, Books1, Books2 a Wikipedia.</p>
<p>Běžný typ LLM, nazývaný také <strong>auto-regresivní (AR) LLM</strong>, je ten, kde je model trénován k předpovídání dalšího tokenu podmíněného všemi předchozími tokeny. GPT-3 a GPT-4 patří do této kategorie.</p>
<p>Tyto modely se také nazývají generativní LLM.</p>
<hr />
<h2>MAMBA</h2>
<p>Mamba je nová architektura pro modelování sekvencí, která nabízí slibnou alternativu k modelům Transformer. Využívá selektivní stavové prostory k dosažení modelování sekvencí v lineárním čase, což poskytuje významné zlepšení efektivity a škálovatelnosti ve srovnání s kvadratickou složitostí Transformerů.</p>
<p>Klíčová inovace Mamby spočívá v její schopnosti selektivně uchovávat nebo zapomínat informace prostřednictvím selekčního mechanismu, což jí umožňuje efektivně zpracovávat dlouhodobé závislosti.</p>
<p>Architektura Mamba demonstruje působivý výkon napříč různými úkoly včetně jazykového modelování, analýzy sekvencí DNA a generování audia. Nabízí 5x vyšší propustnost generování ve srovnání s Transformery podobné velikosti.</p>
<hr />
<h2>Max Marginal Relevance Ranking (MMR)</h2>
<p>V kontextu RAG se MMR vztahuje na techniku, při které jsou relevantní fakta poskytnutá krokem vyhledávání přeuspořádána tak, aby vytvořila rozmanitější sadu faktů. Původně navržená v roce 1998, je tato technika kritická například tam, kde je mnoho odpovídajících textových chunků z více dokumentů ve skutečnosti velmi podobných nebo dokonce identických.</p>
<p>MMR je často implementován jako krok přeuspořádání po vyhledávání. Algoritmus má složitost O(N²), ale může být implementován efektivně pro nízkou latenci.</p>
<hr />
<h2>Open Source LLM</h2>
<p>Termín &quot;open source&quot;, často používaný pro zdrojový kód veřejně dostupný pod různými licencemi jako Apache 2.0 nebo MIT, byl nedávno použit v kontextu LLM pro označení modelů, jejichž váhy jsou veřejně dostupné.</p>
<p><strong>Nejpozoruhodnější open source modely:</strong></p>
<ul>
<li>LLAMA3 od Meta (verze 8B a 70B)</li>
<li>Mistral</li>
<li>Google Gemma</li>
<li>Microsoft Phi4</li>
</ul>
<p>Většina open source LLM je vydána za podmínek umožňujících komerční použití, ale některé mají dodatečná omezení.</p>
<hr />
<h2>Prompt Engineering</h2>
<p>Proces vytváření, zdokonalování a optimalizace vstupních promptů zadávaných LLM za účelem dosažení požadovaných výstupů. Prompt engineering hraje klíčovou roli při určování výkonu a chování modelů jako GPT.</p>
<p><strong>Specifické techniky prompt engineeringu:</strong></p>
<ul>
<li><strong>Přeformulování:</strong> Někdy může přeformulování promptu vést k lepším výsledkům.</li>
<li><strong>Specifikace formátu:</strong> Pro úkoly, kde záleží na formátu odpovědi, můžete jej specifikovat v promptu (např. &quot;Poskytněte odpověď v odrážkách&quot;).</li>
<li><strong>Úvodní informace:</strong> Zahrnutí dodatečného kontextu může pomoci zúžit požadovanou odpověď.</li>
</ul>
<p>Prompt engineering je důležitý i v kontextu RAG pro získání nejlepších výsledků.</p>
<hr />
<h2>RAG Evaluation (Evaluace RAG)</h2>
<p>Při implementaci RAG ve vaší organizaci je důležité nasadit robustní rámec pro evaluaci RAG. To vám umožní měřit kvalitu odpovědí a určit &quot;jak přesná a užitečná je odpověď na jakoukoli uživatelskou otázku&quot;.</p>
<p><strong>Dva hlavní typy metrik:</strong></p>
<ol>
<li>
<p><strong>Metriky vyhledávání (Retrieval metrics):</strong> Tyto metriky říkají, zda jsou fakta získaná ze zdrojových dat relevantní k otázce a mohou být úspěšně použita jako podkladová data pro odpověď.</p>
</li>
<li>
<p><strong>Metriky generování (Generation metrics):</strong> Tyto metriky hodnotí samotnou odpověď podmíněnou fakty – je odpověď správně ukotvena ve faktech?</p>
</li>
</ol>
<p>RAG evaluace může být velmi akční a pomoci vám nejen vidět problémy, ale také je opravit.</p>
<hr />
<h2>RAG Sprawl</h2>
<p>RAG Sprawl označuje nekontrolované šíření implementací Retrieval-Augmented Generation (RAG) napříč vaší organizací – rostoucí problém způsobující bolesti hlavy CIO a IT oddělením při vyčerpávání zdrojů, ohrožování bezpečnosti a vytváření nekonzistentních uživatelských zkušeností.</p>
<p>S RAG Sprawl se organizace rychle ocitne ve správě více redundantních systémů, které v podstatě vykonávají stejnou základní funkci: vyhledávání relevantních informací a jejich použití k ukotvení odpovědí LLM.</p>
<hr />
<h2>Reranking (Přeuspořádání)</h2>
<p>V RAG hraje reranker klíčovou roli při zvyšování relevance získaných dokumentů ve dvoustupňovém modelu vyhledávání.</p>
<p>Zpočátku zahrnuje proces vyhledávání široké hledání pro shromáždění velké sady potenciálně relevantních dokumentových chunků pomocí rychlé a efektivní metody jako vektorové embeddingy nebo hybridní vyhledávání. Počáteční sada dokumentů však může obsahovat mnoho irelevantních nebo okrajově relevantních položek.</p>
<p>Zde přichází reranker jako druhý stupeň procesu vyhledávání. Aplikuje sofistikovanější algoritmus pro přehodnocení a přeuspořádání původně získaných dokumentů.</p>
<p><strong>Kategorie rerankerů:</strong></p>
<ul>
<li>Relevance reranker</li>
<li>MMR reranker</li>
<li>UDF reranker</li>
</ul>
<hr />
<h2>Retrieval Augmented Generation (RAG)</h2>
<p>Retrieval Augmented Generation (RAG) je přístup, který poskytuje LLM dodatečné, kontextové informace k ukotvení jeho odpovědí a zamezení halucinacím.</p>
<p><strong>Ingest flow (tok příjmu dat):</strong><br />
Data jsou rozdělena na věty nebo jiné chunky. Každý chunk je poté zakódován do vektorového embeddingu (pomocí Embeddings modelu) a uložen ve vektorovém úložišti.</p>
<p><strong>Query flow (tok dotazu):</strong><br />
Když je vydán dotaz, je nejprve zakódován do vlastního vektorového embeddingu a ty jsou porovnány s daty ve vektorovém úložišti. Nejrelevantnější věty nebo fakta jsou získány. Tato fakta jsou poté poskytnuta sumarizačnímu LLM, aby mohl odpovědět na dotaz s tímto kontextem na mysli a poskytnout přesnou odpověď založenou na datech.</p>
<hr />
<h2>Semantic Search a Neural Search (Sémantické a neurální vyhledávání)</h2>
<p>Sémantické vyhledávání je metoda používaná ve vyhledávacích algoritmech, která bere v úvahu záměr hledajícího a kontextový význam termínů v dokumentech. Namísto pouhého hledání klíčových slov se sémantický vyhledávač snaží porozumět základním konceptům, kontextu a významu pro přesnější výsledky.</p>
<p>Například při hledání &quot;apple&quot; by tradiční vyhledávání na základě klíčových slov jednoduše vrátilo výsledky obsahující slovo &quot;apple&quot; bez kontextu rozlišujícího mezi Apple Inc. a jablkem jako ovocem.</p>
<p>Sémantické vyhledávání je často založeno na modelu hlubokého učení a nazývá se &quot;neurální vyhledávání&quot;. Při neurálním vyhledávání je text převeden na formu nazývanou &quot;vektorové embeddingy&quot; reprezentující jeho sémantický význam.</p>
<hr />
<h2>Tokenization (Tokenizace)</h2>
<p>V kontextu LLM je tokenizace proces, při kterém je textový řetězec rozdělen na menší jednotky nazývané tokeny. Tokeny mohou být jednotlivé znaky, jednotlivá slova nebo dokonce subslova, a výběr strategie tokenizace závisí na případu použití.</p>
<p>U tradičního NLP byla tokenizace na úrovni slov. Například věta &quot;How am I doing today?&quot; by byla přeložena do 5 slov: [&quot;how&quot;, &quot;am&quot;, &quot;I&quot;, &quot;doing&quot;, &quot;today?&quot;]</p>
<p><strong>Nejběžnější strategie tokenizace pro LLM:</strong></p>
<ul>
<li><strong>BPE (Byte Pair Encoding):</strong> Tato metoda tokenizace rozděluje text na subslova. Velmi běžně používaná v rodině modelů GPT.</li>
<li><strong>Wordpiece:</strong> Vyvinutý společností Google a používaný v původní implementaci BERT.</li>
<li><strong>Unigram:</strong> Používaný v algoritmu SentencePiece od Google.</li>
</ul>
<hr />
<h2>Transformers</h2>
<p>Transformery jsou typ architektury neuronové sítě široce používané v zpracování přirozeného jazyka a jazykovém modelování. Transformery aplikují mechanismus pozornosti (attention), který umožňuje modelu současně zvažovat důležitost všech slov ve větě. To vede k modelům, které lépe zachycují kontext a dlouhodobé závislosti v jazyce.</p>
<p>Architektura transformeru se skládá z enkodéru a dekodéru. Enkodér čte vstupní sekvenci a vytváří její reprezentaci. Dekodér pak používá tuto reprezentaci ke generování výstupní sekvence.</p>
<p><strong>Typy implementací:</strong></p>
<ul>
<li>Pouze enkodér (např. BERT)</li>
<li>Pouze dekodér (např. GPT-3, Anthropic)</li>
<li>Enkodér i dekodér (např. T5)</li>
</ul>
<p>Modely jako BERT, GPT-3 a T5 jsou všechny založeny na architektuře transformer.</p>
<hr />
<h2>Transfer Learning (Přenosové učení)</h2>
<p>V tradičním strojovém učení je cílem natrénovat model k provedení určitého úkolu jako klasifikace nebo regrese.</p>
<p>S transfer learningem vezmete předtrénovaný model a použijete ho (adaptujete) na nový úkol. Protože předtrénování modelu je poměrně nákladné, myšlenka transfer learningu je následující: můžeme znovu použít část znalostí naučených během procesu předtrénování a aplikovat ji na nový úkol, který z těchto znalostí těží?</p>
<p>Transfer learning není nová myšlenka, jen se stal běžnějším s moderními neuronovými sítěmi, které jsou velké a nákladné na předtrénování.</p>
<hr />
<h2>Vector Store / Vector Database (Vektorové úložiště / databáze)</h2>
<p>Vektorové úložiště je typ databáze, která ukládá vysokodimenzionální vektorová data a poskytuje dotazovací schopnosti na těchto vektorech jako similarity search, kde cílem je najít nejpodobnější dokumenty nebo položky k danému dotazu.</p>
<p><strong>Nejběžnější typy vektorových úložišť:</strong> FAISS, Annoy, NMSLib</p>
<p>Vektorová databáze je specializovanější typ vektorového úložiště optimalizovaný pro efektivní správu velkých datasetů vektorů. Vektorové databáze typicky nabízejí pokročilé funkce jako podpora více typů vektorů, efektivní indexování a vysoká škálovatelnost.</p>
<p><strong>Dostupné vektorové databáze:</strong> Qdrant, Weaviate, Pinecone, Milvus, Chroma</p>
<p>Při budování GenAI aplikací od nuly vývojáři často kombinují různé komponenty jako LangChain nebo LlamaIndex, poskytovatele embeddingů jako OpenAI nebo Cohere, sumarizační nebo Chat LLM jako OpenAI, a vektorovou databázi.</p>

<div class="twitter-share"><a href="https://twitter.com/intent/tweet?url=https%3A%2F%2Fwww.hardwired.dev%2F2026%2F03%2F06%2Fglosar-ai-a-llm-terminu%2F&#038;via=hessevalentino&#038;related=hessevalentino%3AValentino%20Hesse%20OK2HSS" class="twitter-share-button">Tweet</a></div><p>The post <a href="https://www.hardwired.dev/2026/03/06/glosar-ai-a-llm-terminu/">Glosář AI a LLM termínů</a> first appeared on <a href="https://www.hardwired.dev">Hard Wired</a>.</p>]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
