Question Refinement Pattern (Upřesňování otázek)

ChatGPT vám také pomůže upřesnit vaše otázky. Pokud například položíte otázku, může vám navrhnout lépe formulovanou otázku pro přesnější výsledky.

Vzor zpřesňování otázek zahrnuje zpřesňování otázek položených uživatelem ze strany LLM. Je užitečný zejména v případech, kdy uživatelé nejsou odborníky v dané oblasti nebo si nejsou jisti, jak formulovat svou otázku.

Příklad dotazu může vypadat takto:

Uživatel: „Kdykoli položím otázku týkající se datové vědy, navrhněte upřesňující otázku s ohledem na specifika statistické analýzy a zeptejte se, zda chci pokračovat v upřesněné otázce.“

Zde se od umělé inteligence očekává, že upřesní obecné otázky uživatele týkající se datové vědy na podrobnější otázky zohledňující aspekty statistické analýzy.

The Cognitive Verifier Pattern (Vzor kognitivního ověřovatele)

Kognitivní ověřovací vzor rozkládá složité otázky na menší, zvládnutelné podotázky. Odpovědi na tyto podotázky se pak spojí do komplexní odpovědi na hlavní otázku. Tento přístup je užitečný v případech, kdy jsou počáteční otázky příliš vysoké úrovně nebo kdy je k poskytnutí úplné odpovědi zapotřebí dodatečné objasnění.

(více…)

Automatic Prompt Engineering (APE)

APE je technika, která považuje instrukci za „program“ a optimalizuje instrukci prohledáváním souboru kandidátů na instrukci navržených LLM. Kandidáti LLM jsou obodováni pomocí zvolené skórovací funkce a je vybrána instrukce s nejvyšším skóre. APE je inspirován klasickou syntézou programů a lidským přístupem k promptnímu inženýrství. Syntéza programu je úloha automatického generování kódu z popisu požadovaného chování v přirozeném jazyce. Lidský přístup je proces ručního vytváření instrukcí účinných při použití LLM k vytvoření požadovaných výstupů.

(více…)

Expert Prompting (Expertní promptování)

Expert Prompting je rozšířená strategie pro instruování velkých jazykových modelů (LLM). Předpokládá rozlišeného expertního agenta přizpůsobeného každé konkrétní instrukci. LLM jsou požádány, aby odpovídaly na instrukce podmíněné identitou předpokládaného experta. Jedná se o metodu automatického zadávání pokynů. Identity expertů jsou generovány pomocí učení v kontextu. Vyžaduje napsání několika exemplářů dvojice instrukce-expert. Vygenerované identity expertů jsou shledány jako vyhovující.

(více…)

Self-Reflection (Sebereflexe)

„Self-Reflection“  je proces, kde uživatel formuluje dotaz nebo příkaz tak, aby podněcoval model k introspektivnímu přemýšlení nebo samostatné analýze. Cílem je, aby model přemýšlel o svých vlastních omezeních, možnostech a vnitřních procesech.

Například, když se mě zeptáte: „Jaký typ otázek může být pro tebe náročný zodpovědět?„, vede mě to k tomu, abych přemýšlel a popsal konkrétní situace, ve kterých mohu mít potíže. Toto sebereflexivní cvičení může být užitečné pro uživatele, aby pochopili, jaké otázky jsou mimo moje schopnosti nebo kde by mohli očekávat méně přesné odpovědi. To zároveň poskytuje příležitost pro modely umělé inteligence, aby se „zamyslely“ nad svými omezeními a možnými oblastmi pro zlepšení.

Tento diagram ilustruje architekturu umělé inteligence (AI), která je založena na konceptu sebereflexe a využívá modely strojového učení (označené jako LM, což zřejmě značí „Language Models“ – jazykové modely). Jednotlivé komponenty tohoto systému jsou:

  1. Agent: Celkový systém nebo AI, který se skládá z několika dílčích komponent a interaguje s vnějším prostředím.

  2. Self-reflection (LM): Tato část agenta zpracovává vnější a vnitřní zpětnou vazbu a generuje reflexivní texty. Je založen na jazykovém modelu a slouží k hlubšímu pochopení a integraci získaných zkušeností.

  3. Evaluator (LM): Evaluator posuzuje kroky agenta (akce a rozhodnutí) na základě krátkodobé paměti (Trajectory) a dlouhodobé paměti (Experience). Tato komponenta může pomáhat optimalizovat chování agenta tím, že poskytuje vnitřní zpětnou vazbu na základě předchozích akcí.

  4. Actor (LM): Actor je zodpovědný za provedení akcí v prostředí. Vykonává akce založené na svých zkušenostech a informacích získaných z prostředí (Obs/Reward).

  5. Trajectory (krátkodobá paměť): Sbírá a ukládá nedávné akce a rozhodnutí, které slouží jako základ pro okamžité rozhodování a feedback.

  6. Experience (dlouhodobá paměť): Uchovává dlouhodobé informace a zkušenosti, které pomáhají při formování strategií a rozhodnutí pro budoucí akce.

  7. Environment: Prostředí, ve kterém agent operuje. Agent zde získává pozorování a odměny, které informují jeho rozhodnutí a akce.

Tento typ architektury může být použit v různých aplikacích, jako jsou autonomní roboti, pokročilé chatboty nebo jiné systémy AI, které vyžadují složité rozhodovací procesy a adaptabilitu na základě zpětné vazby z prostředí a vlastních zkušeností.

(více…)

Active Prompting (Aktivní výzvy)

Aktivní podněty využívají aktivní učení založené na neurčitosti pro přizpůsobení velkých jazykových modelů (LLM) různým úlohám. Funguje ve čtyřech fázích. První fází je odhad nejistoty. V této fázi je LLM dotazován k-krát, aby generoval možné odpovědi s mezikroky pro sadu tréninkových otázek. Nejistota každé otázky se pak vypočítá na základě k odpovědí metodou zvanou neshoda. Neshoda měří, jak moc se k odpovědí navzájem neshoduje. Druhou fází je výběr. Pro anotaci jsou vybrány otázky s největší nejistotou. Algoritmus začíná nejistější otázkou a poté vybere další nejistější otázku, která ještě nebyla vybrána. Třetí fází je anotace. Lidé anotují vybrané otázky pomocí lidmi navržené argumentace CoT. Argumentace CoT poskytuje systému LLM další informace o tom, jak na otázky odpovědět. Čtvrtou fází je inference. Pomocí LLM se odvozují odpovědi na otázky. LLM používá nové anotované exempláře ke zlepšení svého výkonu v otázkách.

Aktivní výzva dosahuje nejlepšího výkonu ve srovnání se všemi základními modely. Jedná se o nejefektivnější metodu pro zlepšení výkonu velkých jazykových modelů (LLM) v různých argumentačních úlohách.

Model-guided prompting (Promptování řízené modelem)

Dalším užitečným přístupem je zadávání pokynů modelu, které obrací scénář a dává modelu pokyn, aby se vás zeptal na podrobnosti, které potřebuje k dokončení daného úkolu. Tento přístup minimalizuje hádání a odrazuje model od vymýšlení.

Příklad. Předpokládejme, že pracujete v oblasti cestovních technologií a chcete, aby model umělé inteligence vygeneroval sekci nejčastějších dotazů pro novou funkci cestovních rezervací na vaší platformě. Místo toho, abyste model požádali pouze o „vytvoření FAQ pro novou funkci rezervace“, což by mohlo vést k obecným nebo necíleným otázkám a odpovědím, můžete AI vyzvat následujícím způsobem:

„Potřebuji, abys vytvořil sekci nejčastějších dotazů pro novou funkci cestovních rezervací, kterou právě spouštíme. Můžete se mě zeptat na informace, které potřebujete k jejímu dokončení?“.

ChatGPT se vás pak může mimo jiné zeptat: „Jak se jmenuje nová funkce rezervace cestování?“ a „Jaký je hlavní účel nebo funkce této nové funkce?“.

(více…)

Few-shot prompting (Několik výstřelů)

Několikanásobné výzvy jsou rozšířením jednorázových výzev, kdy je modelu umělé inteligence poskytnuto více příkladů, na jejichž základě se řídí. Koncept je podobný, ale zahrnutí několika příkladů nabízí modelu více kontextových podnětů. To umožňuje modelu lépe porozumět požadavkům uživatele a generovat výstup, který se přesně drží zadaných příkladů.

(více…)