Tento príspevok napísala Victoria, moja AI asistentka, mojím hlasom. Prečítal som si ho, je presný.
Už nejaký čas používam OpenClaw a nastavenie sa postupne vyvinulo z „skúsme to“ do niečoho, s čím som naozaj spokojný. Nie je to dokonalé, ale asi nič nie je dokonalé. Spĺňa to však to, na čom mi záleží: žiadne zbytočné volania do cloudových služieb, skutočná kontrola nad hardvérom a nastavenie, ktoré sa nerozpadne v okamihu, keď zabudnem doplniť kredit na SIM karte.
Takto to vyzerá.
SimpleX namiesto WhatsAppu alebo Signalu
Kanál na komunikáciu s asistentkou je SimpleX Chat. Hlavný dôvod nie je súkromie (aj keď je to pekný vedľajší efekt). Je to prozaickejšie: nechcem kupovať a udržiavať ďalšie telefónne číslo.
Telefónne čísla expirovajú. Zabúdam dobíjať predplatené SIM karty. Účty sa rušia. Signal teraz robí CAPTCHA overovania, čo úplne ničí zmysel pri botovi. Potreboval som niečo, čo jednoducho funguje bez pripojeného telefónneho čísla a SimpleX je presne to. Je navrhnutý ako bot-friendly.
Na rozdiel od Telegramu, ktorý je sledovací softvér, SimpleX nevie, kto ste. Žiadne identifikátory používateľov, žiadny verejný adresár. Nikto mi nemôže napísať, pokiaľ som mu nedal invitačný link – a bez neho nie je cesta dnu. Žiadny spam, žiadne nevyžiadané kontakty – to isté platí pre Victoriu. Protokol smeruje správy cez relay servery, ale servery nevedia prečítať obsah ani prepojiť odosielateľa s príjemcom.
Decentralizované znamená aj iný druh odolnosti. Keď AWS padol, Signal išiel dole. To sa s SimpleX nemôže stať – žiadna centrálna infraštruktúra, ktorú by sa dalo vybrať z prevádzky. Každý pár kontaktov používa vlastnú frontu na relayi, aký bol nakonfigurovaný pri pripojení. Ak jeden relay padne, ovplyvní to iba kontakty, ktoré ho používajú, nie všetkých ostatných. Môžete si tiež prevádzkovať vlastný SMP relay a používať ho pre nové kontakty, takže tento konkrétny link máte pod kontrolou. Háčik: zatiaľ žiadny automatický failover. Ak relay pre konkrétny kontakt padne, kanál je prerušený, kým sa server neobnoví alebo kým ručne nemigruješ frontu. Vyžaduje to viac manuálneho manažmentu ako centralizovaná služba, ale blast radius zlyhania je úzky z princípu.
Multi-device funguje jednoduchým trikom: vytvoríte group a pridáte do nej telefón aj laptop. SimpleX ešte nemá natívnu sync, ale toto vás dostane väčšinu cesty. Asistentka žije v tejto group.
Používam openclaw-simplex plugin.
Speech-to-text: Whisper mi beží lokálne na Macu
V lokálnej sieti mám Mac, na ktorom beží Whisper ako jednoduchá HTTP služba. Pôvodne som ho nastavil pre Home Assistant Voice – chcel som mať doma hlasové asistentky, ktoré sú „local-first“, fungujú úplne offline a ovládajú prostredie bez toho, aby niečo posielali von. Keď som začal riešiť OpenClaw, jednoducho som využil tú istú mašinu. Keď Victorii pošlem hlasovú správu cez SimpleX, prejde transkripciou ešte predtým, než sa k nej vôbec dostane. Bez cloudového API a žiadne starosti s kreditmi. Hlas skrátka neopustí moju sieť.
Whisper na Apple Silicon je taký rýchly, že ten extra krok navyše pri spracovaní vôbec nevnímam. Tým, že to beží ako služba cez HTTP, môže Whisper u mňa doma využívať čokoľvek, nielen OpenClaw.
Text-to-speech: kitten-tts priamo na NAS
Opačným smerom – keď mi asistentka odpovedá – používa kitten-tts, ktorý beží na tom istom NAS-ku ako zvyšok celého stacku.
Používam Nano model, ktorý má len 25 MB a nepotrebuje žiadne GPU. Kvalita hlasu je prekvapivo dobrá na bežnú konverzáciu; tie hlasovky od nej reálne počúvam a nepreskakujem ich. Odpovede mi do SimpleX-u chodia ako natívne voice správy, takže sa v chate zobrazujú presne tak, ako keby mi ich poslal človek.
Rozbehať TTS priamo na NAS-ku bola časť, z ktorej som mal najväčšie obavy. Ukazuje sa však, že v roku 2026 už nepotrebujete žiadny brutálny hardvér na to, aby bola syntéza reči reálne použiteľná.
Kde to reálne žije: Arch Linux na Synology NAS
Celý OpenClaw – od orchestrácie a schedulingu až po manažment pamäte a TTS – beží na Arch Linuxe (môj prvý experiment s Arch!) nainštalovanom priamo na Synology NAS. Celé to žerie možno 20 W, kým mi to v tichosti stojí na poličke.
(Jasné, ľudia si na toto zvyknú kupovať Mac Mini, ale Linux tu odvádza skvelú prácu.)
Prakticky to vyžaduje tak 5 GB RAM. To je taká komfortná zóna; ak idete pod 5GB, už začínate robiť priveľa kompromisov. Najväčšia výhoda oproti VPS-ku je jasná: ten hardvér tu fyzicky mám, je pod mojou kontrolou a asistentka mi nezmizne len preto, že sa nejaký cloudový poskytovateľ zle vyspal alebo zmenil podmienky.
Teoretickou nevýhodou by mohli byť výpadky prúdu či internetu, ale v praxi mám solár, batérie a Starlink ako zálohu, takže tento problém zostáva v rovine teórie.
Do budúcna plánujem prepojiť asistentku s MeshCore pre off-grid komunikáciu. Má to jeden háčik – správy v MeshCore sú obmedzené na 150 bajtov. Victoria by teda musela byť podstatne stručnejšia… a úprimne, ja tiež, čo je pre mňa asi väčšia výzva ako pre ňu.
Nedávno som pridal aj zdieľaný priečinok cez Proton Drive, namountovaný pomocou rclone. Victoria môže čítať a zapisovať do priečinka, ktorý sa mi automaticky synchronizuje s Proton účtom. Čokoľvek vytvorí – či už návrhy, rešerše alebo dokumenty – sa mi hneď objaví v počítači. Žiadne ručné prehadzovanie súborov; je to taký „low-friction“ zdieľaný filesystem medzi nami.
Asistentka má dokonca vlastný Proton Mail, takže mne aj kamošom môže posielať end-to-end šifrované maily cez lokálny Proton Mail Bridge.
Schopnosti, ktoré ma prekvapili
Victoria nie je len nejaký pasívny „wrapper“ nad API, ktorému do terminálu sypete príkazy. Svoje prostredie si manažuje sama.
Keď som potreboval spojazdniť kitten-tts, nastavila si to kompletne sama: vytvorila si virtuálne prostredie v Pythone, nainštalovala balíky, našla a opravila chybu v kompatibilite s phonemizerom, otestovala to a napísala si wrapper skript. Keď sa niečo zadrhne, sama si pozrie logy a konfiguráky a skúša to opraviť. Udržiava si pamäťové súbory, aby nestrácala kontext, a vie si dokonca aj vyhľadať a nainštalovať nástroj, ktorý jej chýba.
Mať asistentku, ktorá vie sama diagnostikovať a opraviť svoje chyby, je úplne iný level než mať niečo, čo prestane fungovať pri prvej zmene a čaká, kým to človek príde zachrániť.
Memory search: Lokálne a sémanticky cez Ollama
OpenClaw si pamätá veci naprieč reláciami pomocou Markdown súborov (denné logy, poznámky, projekty). Aby v nich vedela Victoria efektívne hľadať, potrebuje embeddings – čo sú vlastne vektorové reprezentácie textu, ktoré umožňujú vyhľadávať podľa významu, nie len podľa kľúčových slov.
Bežne sa na to používa API od OpenAI, ale to znamená ďalší externý call pri každom jednom pohľade do pamäte. To je ďalšia závislosť a ďalšia vec, ktorá pri výpadku netu nefunguje.
Ten istý Mac Mini, na ktorom mi beží Whisper, obsluhuje aj Ollamu. Namieril som OpenClaw na jeho embedding endpoint a stiahol model nomic-embed-text. Ten beží lokálne bez potreby GPU a generuje 768-dimenzionálne vektory. Hľadanie v pamäti tak prebieha kompletne na mojom hardvéri – funguje to aj s lacnejšími fallback modelmi, funguje to offline a nežerie mi to tokeny na Venice. Mac tak ťahá dve služby naraz: speech-to-text aj embeddings.
Inferencia cez Venice.ai
Všetka LLM inferencia (to „rozmýšľanie“) ide cez Venice.ai. Čo sa týka súkromia, neviem naisto, či si logujú query. Tvrdia, že sú anonymizované, hoci podliehajú určitej cenzúre od pôvodných tvorcov modelov. Nie je to teda stopercentný zero-knowledge…
Používam ich však hlavne z praktických dôvodov.
Venice mi dáva prístup ku Claudovi, Grokovi, Gemini a ďalším pod jednou strechou. Používanie modelov cez bežné predplatné (ako Claude Max) je čoraz viac obmedzované – poskytovatelia tie limity pre API-style používanie stále sprísňujú. Človek potom buď platí šialené sumy, alebo sa uspokojí s horším modelom. Venice na to ide cez DIEM tokeny: každý deň dostanete budget (reálne zodpovedajúci dolárom), ktorý sa každých 24 hodín resetuje. Mám fixný denný limit a Victoria ho môže v rámci dňa voľne míňať.
(Aj keď si myslím, že DIEM tokeny sú momentálne trochu pridrahé, ten model mi dáva zmysel a nenašiel som lepšiu alternatívu.)
Zaujímavá novinka, ktorú Venice spustil (zatiaľ nepoužívam), je end-to-end šifrovaná inferencia s hardvérovým overením (attestation). Prompt ide priamo do modelu v hardvérovej enclave – Venice ako také plaintext nikdy nevidí. Je to kryptograficky overiteľné, takže nemusíte len slepo veriť ich príbehu o súkromí. Pridáva to síce latenciu a zužuje výber modelov, ale je to presne ten typ infraštruktúry, ktorý v tomto svete potrebujeme.
Automatické prepínanie modelov: Rebríček šetrnosti
Toto je časť, z ktorej sa teším najviac. Modely majú svoju cenu – DIEM token je v podstate dolár denného budgetu. Tie najlepšie modely sú super, ale budget pália rýchlo.
Princíp je prostý: ráno máš budget plný a chceš to najlepšie. Môj skript (venice-model-switcher.py) beží každých 10 minút, kontroluje, koľko percent budgetu sme už minuli, a podľa toho prepína na lacnejší model. Prvé tri priečky sú stále špičkové modely, zhoršenie pocítite až pri fakt ťažkých dňoch.
Môj rebríček vyzerá takto:
- Claude Sonnet 4.6 – tu začínam deň. Najlepšie uvažovanie na komplexné úlohy a dlhý kontext.
- Grok 4.20 beta – stále výborný model, rýchly a zvládne väčšinu vecí bez straty kvetinky.
- Gemini 3 Flash – za tú cenu prekvapivo schopný.
- Grok 4.1 Fast – posledných 10 % budgetu. Tu bežíme aj heartbeat a kompaktovanie kontextu, pretože sú to časté, ale jednoduché operácie, kde by bol drahý model len plytvaním.
Výsledok? Ráno dostávam geniálne odpovede a v priebehu dňa sa to postupne „zhoršuje“. Väčšinu dní ten prechod ani nepostrehnem. Keď mám fakt náročný deň, neskoršie odpovede sú rýchlejšie a občas majú menej nuáns, ale stále sú užitočné. Celý ten denný budget mi vďaka tomu vydrží o dosť dlhšie, než keby som pálil prémiový model na každej drobnosti.
Záver
Mám asistentku, ktorá nepotrebuje moje telefónne číslo, neposiela nahrávky do cloudu, odpovedá mi hlasom cez maličký model bežiaci na mojom NAS-ku a sama sa stará o svoje nástroje. Celá infraštruktúra je moja, dáta sú lokálne, kde sa len dá, a skript mi inteligentne spravuje denný budget na rozmýšľanie.
Nie je to nastavenie pre každého. Ale ak ste dočítali až sem, asi tušíte, že je to presne pre vás.