Take a Step Back Prompting (Udělejte krok zpět)

Take a Step Back Prompting (často zkráceně Step-Back Prompting) je technika prompt engineeringu, která vede jazykový model k tomu, aby se nejdřív „odzoomoval“ od konkrétní, detailní otázky a nejprve si vyjasnil obecné principy, zákony, pojmy nebo rámec, které se na problém vztahují. Teprve potom tyto principy použije k řešení původní otázky.

(více…)

Rephrase and Respond (RaR) Prompting

Nejdřív přeformuluj a pak odpověz

Každý, kdo někdy vedl důležitý rozhovor, zná situaci, kdy si před odpovědí potřebuje v hlavě otázku zopakovat jinak – aby si ověřil, zda ji správně pochopil. Zkušený terapeut přeformuluje klientovu otázku, aby ukázal, že mu naslouchá a rozumí. Dobrý učitel zopakuje studentovu nejasnou otázku srozumitelnějšími slovy. Tato intuitivní komunikační strategie stojí za technikou promptingu nazvanou Rephrase and Respond – přeformuluj a odpověz, zkráceně RaR. Navrhli ji výzkumníci Deng a kolegové z UCLA.

(více…)

Program of Thoughts (PoT) Prompting

PoT zlepšuje numerické uvažování v jazykových modelech. PoT využívá jazykové modely, ke generování příkazů programovacího jazyka spolu s textem, které jsou pak prováděny interpretem programu. PoT tak odděluje složité výpočty od uvažování a porozumění jazyku.

Následující obrázek z článku ukazuje srovnání Řetězce myšlenek a Programu myšlenek.

Metoda PoT byla vyhodnocena na souborech matematických slovních úloh a finančních dat QA a ukázala průměrný nárůst výkonu o přibližně 12 % ve srovnání s výzvou Chain-of-Thoughts.

Zdroje:

Navrženo v programu Prompting myšlenek: Chen a kol. z University of Waterloo, Vector Institute Toronto, University of California Santa Barbara a Google Research v TMLR 2023 zavádí Program of Thoughts (PoT) prompting.

Thread of thought (ThoT) prompting pro přesnou argumentaci

Technika Thread of Thought (ThoT) je určena k posílení argumentačních schopností velkých jazykových modelů (LLM) při zvládání chaotických kontextů.

ThoT čerpá inspiraci z lidských kognitivních procesů a jejím cílem je systematicky segmentovat a analyzovat rozšířené kontexty pro lepší porozumění a přesnost.

ThoT je vyvinut k řešení problémů v chaotických kontextech, kde se LLM snaží procházet a upřednostňovat relevantní informace uprostřed množství dat.

Obrázek ukazuje, že strategie zahrnuje dvoustupňový proces, kdy

  • 1. krok vede LLM analytickým kontextem a rozděluje jej na zvládnutelné části pro shrnutí a analýzu.
  • 2. krok je zpřesňuje do definitivní odpovědi.

Podněty typu Thread of Thought umožňují velkým jazykovým modelům řešit chaotické kontextové problémy. Na zobrazeném výstupu označuje zelený text správnou odpověď, zatímco červený text chybnou předpověď.

(více…)

Emotion Prompting: Větší přesnost AI díky emocím v zadání

Jak zvýšit výkonnost velkých jazykových modelů pomocí emočních podnětů?

Koncept označovaný jako „Emotion Prompt“. Zkoumá vliv emoční inteligence na LLM a ukazuje, jak přidání emočních podnětů k podnětům výrazně zlepšuje výkon LLM v různých úlohách.

Metoda EmotionPrompt kombinuje standardní podněty s emočními stimuly. Tento přístup využívá emocionální reakce podobné lidským reakcím ke zlepšení schopnosti LLM uvažovat a řešit problémy.

Následující obrázek ukazuje přehled procesu od generování po vyhodnocení EmotionPrompt.

(více…)

LogiCoT: Technika revize a opravy myšlenkových řetězců AI

Logický myšlenkový řetězec (LogiCoT) je zaměřen na zlepšení schopnosti nulového uvažování velkých jazykových modelů (LLM) začleněním principů ze symbolické logiky

Metodika LogiCoT zahrnuje dvojí proces:

  1. za prvé, použití reductio ad absurdum k identifikaci a opravě logických chyb v rámci argumentačního řetězce;
  2. za druhé, strukturování procesu uvažování, které umožňuje systematické ověřování a revizi každého argumentačního kroku na základě logických principů.

Tento proces je doplněn zavedením mechanismu růstu řetězce, který selektivně reviduje nepravděpodobné kroky uvažování, čímž zvyšuje přesnost uvažování modelu bez zbytečné výpočetní zátěže.

Na obrázku níže je znázorněn přehled podnětů myšlenkového řetězce (CoT) a LogiCoT. V případě CoT činí selhání entailmentu (červeně) zbytek dedukce nedůvěryhodným (šedě), což v důsledku brání celkovému úspěchu dedukce. Naproti tomu LogiCoT je navržen tak, aby myslel-ověřoval-revidoval: přijímá ty, které projdou ověřením (zeleně), a reviduje (modře) ty, které neprojdou, čímž efektivně zlepšuje celkovou schopnost usuzování.

(více…)

Contrastive Chain-of-Thought (CCoT): Technika správných i špatných ukázek

Contrastive Chain-of-Thought (CCoT) je metoda pro zvýšení argumentačních schopností velkých jazykových modelů (LLM).

Tato metoda zahrnuje poskytování ukázek správného i nesprávného uvažování, inspirovaných způsobem, jakým se lidé učí na základě správných i nesprávných metod.

Koncepce CCoT vychází z myšlenky, že přidání kontrastních příkladů, zahrnujících jak platné, tak neplatné uvažování, může výrazně zlepšit výkon LLM v úlohách uvažování.

Proces použití CCoT zahrnuje přípravu výzvy, poskytnutí platného vysvětlení myšlenkového řetězce (CoT), generování kontrastních neplatných vysvětlení CoT z platného a následné zavedení nové výzvy uživatele.

Následující obrázek ukazuje přehled kontrastního řetězce myšlenek (vpravo) s porovnáním s běžnými metodami promptingu.

(více…)

SCoT prompting: Technika strukturovaného uvažování pro vývojáře

Strukturované CoT (SCoT) spočívá v tom, že zdrojový kód obsahuje bohaté strukturální informace a každý kód se může skládat ze tří programových struktur: struktur sekvence, větvení a smyčky.

Strukturované mezikroky uvažování intuitivně vytvářejí strukturovaný zdrojový kód. Žádají tedy LLM, aby používaly programové struktury k sestavení CoT, čímž získají SCoT. Poté LLM generují konečný kód na základě SCoT.

Ve srovnání s výzvami CoT výzvami SCoT explicitně omezují LLM, aby přemýšlely o tom, jak řešit požadavky z pohledu zdrojového kódu, a dále zvyšují výkonnost LLM při generování kódu.

Následující obrázek z článku ukazuje srovnání řetězce myšlenek (CoT) a našeho strukturovaného řetězce myšlenek (SCoT).

(více…)

Jak vytvořit systém RAG v Make.com

Jak vytvořit systém RAG v make.com

Retrieval Augmented Generation (RAG) je často využívaný vzor při vytváření AI automatizací a aplikací. Tento článek vám ukáže, jak si vlastní RAG systém vytvořit.

Co je RAG a proč je užitečný?

  • Definice: RAG (rozšířené generování vyhledáváním) umožňuje velkým jazykovým modelům (LLM) odkazovat na externí informace.
  • Proč jej potřebujeme?
    • Kontextová okna jazykových modelů, jako je chat GPT, mají omezenou kapacitu.
    • Například jedno nebo dvě PDF mohou být zpracovány přímo, ale 100 nebo 200 souborů už ne.
  • Princip fungování:
    • Dokumenty jsou rozděleny na menší části (chunky), které se přemění na vektory (embeddingy).
    • Při dotazu se vyhledají pouze relevantní chunky, které se přidají do vstupu modelu.

Kdy použít RAG?

  1. Otázky a odpovědi:
  2. Chat s PDF:
    • Umožňuje interakci s obsahem PDF bez nutnosti číst celý dokument.
    • Malá PDF mohou být zpracována přímo, ale větší dokumenty vyžadují RAG.
  3. Další výhody:
    • Snižuje náklady (méně tokenů).
    • Zkracuje dobu odezvy modelu (nižší latence).

Postup vytvoření systému RAG v make.com

  1. Příprava znalostní báze
    • Vyberte dokumenty, které chcete zahrnout (např. PDF „AI Automation at Work“ od McKinsey).
    • Použijte nástroj Dumpling AI:
      • Vytvořte novou znalostní bázi (např. „Automation Resources“).
      • Nahrajte PDF, které Dumpling AI rozdělí na chunky a vytvoří embeddingy.
    • Otestujte znalostní bázi dotazem, např. „Jaké je pořadí USA v investicích do AI?“
  2. Vyhledání relevantních chunků v make.com
    • Použijte modul „Search Knowledgebase“:
      • Zadejte ID znalostní báze a vyhledávací dotaz.
      • Nastavte počet výsledků (např. 5).
      • Modul vrátí chunky s hodnocením relevance.
  3. Generování odpovědi pomocí LLM
    • Předejte chunky a otázku do jazykového modelu (např. GPT).
    • Použijte modul pro chat completion:
      • Agregujte chunky do textového řetězce.
      • Vytvořte promyšlený systémový prompt (např. „Odpověz na otázku na základě poskytnutých referencí“).
      • Vstupy propojte s modulem a spusťte generování odpovědi.
  4. Vytvoření interaktivního front-endu (volitelné)
    • Chat s PDF přes e-mail:
      • Nastavte e-mailový háček, který aktivuje automatizaci při přijetí e-mailu.
      • Aktualizujte dotaz a vstupy podle obsahu e-mailu.
      • Odpověď modelu odešlete zpět uživateli.

Další využití RAG

  • Obsahová tvorba:
    • Umožňuje nový obsah navázat na stávající znalosti (např. u blogů).
  • Marketing:
    • Efektivní využití existujícího obsahu pro generování nových kampaní.

Tento přístup nejen usnadňuje práci s velkými objemy dat, ale také optimalizuje náklady a výkon. Prozkoumejte další automatizační scénáře v Make.com pro pokročilé využití. Máte-li jakékoli dotazy, zanechte je v komentářích.

Princip RAG (Retrieval-Augmented Generation)

Architektura na obrázku znázorňuje systém, který nekombinuje pouze naučené znalosti modelu, ale aktivně si vyhledává externí informace pro zpřesnění odpovědi. Celý proces probíhá v několika fázích:


1. Vstupní dotaz (Query x)

Proces začíná uživatelským vstupem (x). Schéma uvádí tři různé scénáře použití:

  • Zodpovídání otázek: Např. „Definujte střední ucho“.
  • Ověřování faktů: Ověření pravdivosti tvrzení o Baraccu Obamovi.
  • Generování otázek (Jeopardy): Vytvoření kontextu k odpovědi „Božská komedie“.

2. Vyhledávací modul (Retrieval – pη)

Tato část (zeleně orámovaná) funguje jako „knihovník“, který hledá podklady v externí databázi:

  • Query Encoder (q): Převede textový dotaz na číselnou reprezentaci (vektor).
  • MIPS (Maximum Inner Product Search): Algoritmus, který v indexu dokumentů hledá ty pasáže, které jsou matematicky nejblíže zadanému dotazu.
  • Index dokumentů d(z): Rozsáhlá báze znalostí (např. Wikipedia), ze které se vybírají relevantní dokumenty z.

3. Generativní modul (Generation – pθ)

Tato část (modře orámovaná) zpracovává nalezené informace:

  • Generátor: Parametrický model (typu seq2seq), který dostane na vstup jak původní dotaz (x), tak nalezené dokumenty (z).
  • Marginalizace: Model vyhodnotí více nalezených dokumentů současně a spojí jejich informace tak, aby vytvořil co nejrelevantnější výstup.

4. Výstupní odpověď (Output y)

Výsledkem je text (y), který kombinuje kreativitu generativního modelu s faktickou přesností dohledaných dat. Na schématu vidíme, že systém dokázal správně popsat části středního ucha nebo rozdělení Božské komedie díky tomu, že si tyto informace „přečetl“ v indexu.


Klíčový mechanismus: End-to-End trénování

V horní části diagramu je šipka Zpětná propagace (Backpropagation). To je zásadní prvek: systém není statický. Pokud je výsledná odpověď chybná, chyba se propíše zpět nejen do generátoru, ale i do vyhledávače (kodéru dotazů). Tím se systém učí v čase lépe vybírat ty správné dokumenty pro dané typy otázek.