ABCDEFGHIJKLNOPQRSTUVWXYZ
1
Vzdelanie SŠOdbor VŠVekSkúšobná dobaHodinová odmenaZnalosti a skúsenostiBoovanie cenaBodovanie inéFinal skóreUkončenie VŠ Trvalé bydlisko, stačí miesto/obecZnalosti jazykov [Angličtina]Kapacita VŠ semester Kapacita prázdninyZaujímavá novinkaPodobná prácaOdborné komunityVlastná tvorbaNo-code platformyAPIŠtandardizácia dátTvorba obsahuSilné a slabé stránkyPrečo tyAktuálna pozícia
2
Obchodná akadémia v Považskej Bystrici, InformatikaFakulta riadenia a informatiky UNIZA, informatika a riadenie22Áno7,5535132027Považská Bystricakomunikujem bez problémov80120Antigravity, uľahčilo to pre mňa vývoj mojich projektov. Ako študent CS sa aktívne venujem AI-driven vývoju v prostredí Antigravity a s využitím modelov ako Claude 4.6 Sonnet/ gemini 3.1 pro. Mám skúsenosti s budovaním automatizovaných scraperov na zber a čistenie dát. Vyvinul som tiež vlastného trading bota pre platformu Polymarket, kde som riešil komplexnú logiku a prácu s API v reálnom čase.Sledujem viacero youtube kanálov pravidelne - https://www.youtube.com/@aiexplained-official, https://www.youtube.com/@DwarkeshPatel, https://www.youtube.com/@WesRothVyvinul som bota na vyhľadávanie a realizáciu arbitráží medzi Polymarket a Kalshi. Pomocou Antigravity a AI som vytvoril systém, ktorý cez API monitoruje športové trhy, čistí nejednotné dáta a momentálne je vo fáze finálneho ladenia automatizovaného tradingu. Najväčšou výzvou bola synchronizácia dát v reálnom čase, čo som vyriešil efektívnym mapovaním vstupov, ktoré systém autonómne vyhodnocuje.Nástroje ako n8n alebo Zapier poznám a viem, ako fungujú, no doteraz som väčšinu vecí riešil radšej priamo kódom. Keďže však ovládam prácu s API a JSON dátami, prechod na tieto vizuálne platformy pre mňa nebude problém a rád ich začnem využívať na zrýchlenie práce tam, kde to dáva zmysel.S API som pracoval viac krát napríklad:
AI & Grounding: Cez API som prepojil Gemini s webovými dátami pre projekt call centra do školy, kde systém vyhľadával 'talking points' na základe kontextu leadu. Podobne som riešil analýzu kurzov na spoločenské stávky na Polymarkete pomocou aktuálnych správ.

Finančné API: Používal som Yahoo Finance a knižnicu CCXT na analýzu volatility a hľadanie 'edge' v krypto stávkach.
Proces by som postavil v n8n, kde by AI (napr. cez lacné API Gemini Flash alebo GPT-4o-mini) vytiahla z textu e-mailu čistý JSON s cenou a zľavou. Pri menších objemoch by sa dal využiť free tier týchto modelov, čo by minimalizovalo náklady. Následne by workflow tieto štruktúrované dáta automaticky zapísal priamo do vašej databázy alebo CRM cez HTTP požiadavku.Scrapovanie Facebooku je technicky náročné kvôli blokovaniu, preto by som zvolil stabilnejšiu cestu:
Zber dát (Aggregator): Namiesto vlastného scrapera by som využil existujúcu službu (napr. Apify alebo PhantomBuster), ktorá má hotové moduly na extrakciu FB podujatí a poskytuje dáta cez API/RSS.
Spracovanie a formát (n8n): Tieto dáta by n8n workflow poslal do AI (Gemini/Claude). AI by z chaosu na FB vytvorila jednotný popis podujatia, dátum a kategóriu.
Preklad: Ten istý workflow by následne poslal spracovaný text do AI s promptom na preklad do angličtiny, čím zabezpečíme konzistentný tón v oboch jazykoch.
Výstup: n8n by výsledky spojilo do finálneho RSS feedu (alebo uložilo do databázy), ktorý by sa automaticky aktualizoval.
Silné stránky: Adaptabilita na nové AI nástroje, Analytické myslenie programátora. Slabé stránky: Menej skúseností s firemnými procesmi, Preceňovanie časových odhadovAI automatizácie a prepájanie systémov sú moje hobby, ktorému sa venujem aj vo voľnom čase na vlastných projektoch. Baví ma hľadať technické riešenia, ktoré reálne šetria čas, a vďaka 'vibecodingu' dokážem funkčné prototypy doručovať veľmi rýchlo.
3
GymnáziumFEI, inteligentné systémy/Umelá inteligencia21Áno6,5544132026 Bc, 2028 ingKošicedohovorím sa/odborné texty čítam bez problémov80 hodin a viac 120 a viacNajviac ma v poslednom období zaujali multimodálne LLM a agent-based systémy. Umožňujú prepájať text, obrázky a automatizačné nástroje do jedného workflowu, čo výrazne zvyšuje produktivitu. Napríklad praktické využitie vidím v AI agentoch, ktoré dokážu automaticky spraviť research, zhrnúť informácie a pripraviť návrh textu alebo analýzy bez manuálneho zásahu.Pracoval som s AI nástrojmi na praktických úlohách, ako je tvorba textov, analýza informácií a zlepšovanie workflowu. Komerčný pracovný experience v tejto oblasti zatiaľ nemám, ale AI aktívne využívam v osobných projektoch a na rozvoj vlastných zručností, čo mi pomohlo pochopiť, ako efektívne integrovať AI do každodenných procesov.Medzi hlavné zdroje, ktoré sledujem, patria:
https://arxiv.org/list/cs.AI/recent⁠
https://huggingface.co⁠
https://github.com/trending⁠
https://news.ycombinator.com⁠
Tieto platformy mi pomáhajú priebežne sledovať nové modely, výskum aj praktické využitie AI nástrojov.
Môj doteraz najzaujímavejší mikroprojekt je PostWave – SocialMediaChatBot, webová aplikácia zameraná na automatizáciu tvorby a publikovania obsahu na sociálne siete. Hlavným cieľom bolo zjednodušiť proces generovania news článkov pomocou AI a ich následné publikovanie bez manuálnej práce.
Používateľ môže vytvoriť článok pomocou LLM modelov (cez OpenRouter), systém automaticky vyberie tematický obrázok cez Unsplash API a následne obsah publikuje na Telegram a Twitter. Backend workflow je postavený na n8n, frontend je vytvorený vo vanilla JavaScript, HTML a CSS, pričom dáta a autentifikácia sú riešené cez Supabase. Projekt využíva aj SMTP služby na emailové overenie používateľov.
Pri projekte som pracoval s integráciou viacerých API, návrhom architektúry a automatizáciou workflowu, čo mi pomohlo lepšie pochopiť praktické využitie AI nástrojov v reálnych scenároch.
S projektom sa dá oboznámiť tu:
https://github.com/kirkiiruch/SocialMediaChatBot⁠
Mám skúsenosti s no-code/low-code nástrojmi, najmä s n8n, ktorý som využíval na tvorbu automatizačných workflowov a prepojenie AI služieb s externými platformami. Okrem toho som pracoval aj s nástrojmi ako Make alebo Zapier pri testovaní jednoduchších integrácií a automatizácie procesov, napríklad pri spracovaní dát, publikovaní obsahu alebo prepájaní API služieb.S API pracujem pomerne často v rámci vlastných projektov. Najčastejšie ide o integráciu AI API (napr. GPT/LLM modely), Telegram Bot API na komunikáciu a automatické publikovanie, ako aj rôzne externé služby ako napríklad Unsplash API či sociálne siete. API využívam na automatizáciu workflowu, spracovanie dát a prepojenie viacerých systémov do jedného funkčného riešenia.Takýto proces je možné riešiť aj bez AI – napríklad klasickým parsovaním emailov pomocou regex pravidiel, šablón alebo parsera, ak majú správy aspoň čiastočne konzistentnú štruktúru. Tento prístup je rýchly a lacný, ale menej flexibilný pri rôznych formátoch textu.
Ak by však bolo cieľom využiť AI a no-code automatizáciu, navrhol by som workflow v n8n:
1Email trigger zachytí prichádzajúce správy od hotelov.
2Obsah emailu sa odošle do LLM API s promptom na extrakciu údajov (cena, typ zľavy, výška zľavy) vo formáte JSON.
3n8n následne vykoná validáciu dát a jednoduché transformácie.
4Dáta sa zapíšu cez API do databázy alebo CRM systému.
5Pridal by som aj logging a fallback vetvu pre prípady, keď extrakcia nie je dostatočne presná.

Takýto hybridný prístup kombinuje spoľahlivosť automatizácie s flexibilitou AI pri neštruktúrovaných emailoch.
Workflow by som navrhol čisto pomocou n8n:
n8n by pravidelne monitoroval FB stránky vybraných subjektov (napr. cez Graph API alebo dostupné zdroje dát).
Nové udalosti by sa spracovali vo workflowe, kde by sa normalizovali do jednotnej dátovej štruktúry (názov, dátum, miesto, popis).
n8n by následne generoval RSS feed z týchto dát v jednotnom formáte.
Druhá vetva workflowu by využila AI pre preklad existujúceho feedu do angličtiny a vytvorila paralelnú EN verziu.
Takýto prístup umožňuje mať celý proces centralizovaný v jednom automatizačnom nástroji a jednoducho ho škálovať.
Medzi slabšie stránky patrí to, že som z Košíc, preto viem pravdepodobne pracovať hlavne remote/online.
Moje silné stránky sú vysoká zodpovednosť, schopnosť pracovať veľa hodín, rýchle učenie sa nových nástrojov a spoľahlivé dodržiavanie termínov.
Myslím si, že som vhodný kandidát, pretože sa aktívne venujem AI automatizácii a práci s nástrojmi ako n8n, API integrácie a LLM workflowy. Rád hľadám praktické riešenia, ktoré šetria čas a zjednodušujú procesy. Zároveň sa rýchlo učím a dokážem samostatne navrhovať aj realizovať nové nápady.
4
Kyjevsko-mohylianske kolégium (Kyjev, Ukrajina)TUKE FEI, Kyberbezpečnosť17Áno6544132028Košicekomunikujem bez problémovPriemerne 40-60 hodín mesačne. Počas sobôt, nedieľ a pondelkov mám úplne voľno a môžem sa práci venovať naplno. V ostatné dni som k dispozícii podľa dohody a rozvrhu80-100+ hodín mesačne. Rozsah je na dohode, som maximálne flexibilný, najmä pri možnosti homeworkinguNajviac ma nadchla kombinácia Antigravity a nových modelov Gemini 3.1 a Sonnet/Opus 4.6. Už aj tak silné modely sú teraz ešte výkonnejšie a veľmi ma láka vyskúšať ich potenciál v reálnom projekteVyvinul som projekt prsk-trcp.tech (automatizované transkripcie) s využitím GitHub Actions. Taktiež som vytvoril "content machine" na automatickú generáciu krátkych videí pre YouTube a Instagram. Oba projekty boli z 99,9 % vytvorené pomocou promptov, čo mi umožnilo rýchlo doručiť funkčné riešeniaTrendy v AI sledujem primárne cez tematické kanály na Telegrame a špecializované profily na Instagrame, je to pre mňa najrýchlejší spôsobMôj najzaujímavejší projekt je prsk-trcp.tech, ktorý rieši potrebu rýchlej a dostupnej transkripcie audia na text. Vyvinul som ho vo VS Code pomocou GitHub Copilot s využitím modelov Claude a Gemini, pričom jadro tvorí technológia whisper-cli a automatizácia procesov cez GitHub Actions. Výsledkom je aktuálne plne funkčný web s jednoduchým frontendom, ktorý plánujem ďalej rozvíjať a monetizovať prostredníctvom predaja transkripčných tokenovn8n nie je môj primárny nástroj, ale mám základy v automatizácii procesov cez GitHub Actions. Princíp skladania workflow a logika sú podobné, takže no-code platformy dokážem vďaka technickému backgroundu ovládať takmer okamžiteÁno, s API pracujem pravidelne. Pri svojich projektoch som využíval Google Cloud API, YouTube a Instagram API (pri automatizácii obsahu). Na integráciu modelov Claude a Gemini bežne používal som OpenRouter a Google AI Studio. Mám skúsenosti s prepájaním dát a automatizáciou výstupov cez tieto rozhraniaNa tento proces by som využil workflow, ktoré sa automaticky spustí pri prijatí e-mailu, pričom jeho obsah by som cez API poslal llm. Pomocou nastaveného systémového promptu by AI z neštruktúrovaného textu vytiahla kľúčové informácie ako cenu, typ pobytu a výšku zľavy do formátu JSON. Tento štruktúrovaný objekt by n8n následne spracovalo a cez API zapísalo priamo do firemnej databázy alebo CRM, čím by sa eliminovala potreba manuálneho prepisovania dát a zabezpečila by sa vysoká presnosť spracovaniaTento workflow by som navrhol v n8n s využitím externého nástroja (Apify) na monitorovanie a scrapovanie FB stránok, keďže Facebook nemá otvorené API pre tento typ dát. Získané neštruktúrované príspevky by som následne spracoval cez API pomocou llm, ktorý by informácie zjednotil do vopred definovaného formátu (názov, dátum, miesto). n8n by z týchto dát vygenerovalo primárny slovenský RSS feed a v druhom kroku by tie isté dáta opäť prešli cez llm na kvalitný preklad do angličtiny, čím by vznikol paralelný anglický feed. Celý proces by bežal plne automaticky, čím by sme získali aktuálny a dvojjazyčný kalendár podujatí bez potreby manuálneho vstupuMojou silnou stránkou je vytrvalosť a zodpovedný prístup k práci. Každú úlohu sa snažím dotiahnuť do konca a beriem ju seriózne.
Ako slabú stránku vnímam svoj perfekcionizmus - niekedy venujem viac času detailom, než je potrebné. Postupne sa však učím lepšie vyvažovať kvalitu a efektivitu.
Verím, že som vhodný kandidát, pretože už mám praktické skúsenosti s AI a automatizáciou, ktoré som nadobudol pri vývoji vlastných funkčných riešení. Som maximálne motivovaný posunúť sa k práci na reálnych a komplexnejších projektoch, kde môžem naplno využiť svoj technický potenciál і disciplínu. K úlohám pristupujem s vysokou mierou serióznosti a zodpovednosti, pričom sa neustále snažím o čo najefektívnejšie
5
Charkivský liceum č. 169, Charkiv, Ukrajina — všeobecné stredoškolské vzdelanieFakulta riadenia a informatiky (FRI), Informatika18Áno7435122028Žilina, Slovenskokomunikujem bez problémov40 hodín mesačne100 hodín mesačneZa posledný mesiac ma najviac nadchli AI nástroje na programovanie, najmä GPT-5.3 CodeX a platforma Antigravity s modelmi Claude Opus 4.6 a Gemini 3 Pro. Využívam ich pri vývoji projektov na generovanie kódu, refaktoring, debugging aj návrh architektúry. Práca s nimi je veľmi pohodlná a výrazne zrýchľuje vývojový proces. Umožňujú mi rýchlo experimentovať, porovnávať rôzne prístupy rôznych modelov a implementovať riešenia v praxi. Vnímam ich ako silný nástroj na zvyšovanie produktivity vývojára aj celej firmy.Priamo na takejto pracovnej pozícii som ešte nepracoval, ale mám skúsenosti s využívaním AI nástrojov a automatizácie pri vlastných projektoch a štúdiu. Používam LLM nástroje na generovanie a úpravu kódu, analýzu problémov, tvorbu obsahu a experimentovanie s rôznymi riešeniami. Vytváral som menšie softvérové projekty a webové aplikácie, kde som AI využíval ako asistenta pri návrhu a implementácii. Som zvyknutý na samoštúdium nových technológií a rýchle osvojovanie si nástrojov potrebných pre konkrétnu úlohu.Na sledovanie trendov v AI využívam najmä sociálne siete a online komunity. Sledujem tematické kanály na platforme Telegram, kde sa zdieľajú aktuálne novinky, nástroje, experimenty a praktické skúsenosti s AI. Okrem toho pravidelne čítam odborné články na portáli Habr (https://habr.com/en/feed/), ktorý prináša technické analýzy, návody a skúsenosti z praxe. Sledujem aj niektoré YouTube kanály zamerané na AI a programovanie, kde sa prezentujú nové nástroje, ukážky ich použitia a praktické tutoriály.Mojím najzaujímavejším mikroprojektom bola tvorba jednoduchej webovej stránky pre prípravu na skúšky z matematiky (NMT). Cieľom bolo vytvoriť prehľadný online nástroj s úlohami a materiálmi pre študentov.
Použil som HTML, CSS a JavaScript na frontend a projekt som nasadil ako statickú webovú aplikáciu. Pri vývoji som využíval AI nástroje ako asistenta pri generovaní kódu, návrhu riešení a odstraňovaní chýb.
Výsledkom je funkčný web dostupný online, ktorý demonštruje moje schopnosti samostatne navrhnúť a implementovať jednoduchú aplikáciu od nápadu až po nasadenie. Projekt mi pomohol získať praktické skúsenosti s webovým vývojom a riešením reálnych problémov.
Projekt je dostupný online https://nmt2026.vercel.app/
Priamu skúsenosť s low-code/no-code platformami zatiaľ nemám, ale mám záujem sa s nimi rýchlo oboznámiť. Vďaka skúsenostiam s programovaním a AI nástrojmi som zvyknutý rýchlo sa učiť nové technológie a aplikovať ich v praxi. Verím, že tieto platformy by som vedel efektívne využiť po krátkom čase štúdia.Priamu praktickú skúsenosť s implementáciou API zatiaľ nemám, najmä kvôli platenému prístupu k niektorým službám. Mám však dobré pochopenie princípov fungovania API a sledoval som postupy tvorby aplikácií využívajúcich AI API (napr. integrácia LLM modelov s externými dátami). Som zvyknutý na samoštúdium a verím, že by som dokázal API efektívne využiť po krátkom čase prípravy.Navrhol by som automatizovaný workflow, ktorý spracuje prichádzajúce e-maily pomocou AI. Najprv by sa e-mail zachytil, následne by AI model spracoval text a extrahoval relevantné informácie — cenu, typ pobytu a výšku zľavy. Výstup by bol prevedený do štruktúrovanej podoby (JSON) a uložený do databázy.
Na zvýšenie presnosti by bolo možné použiť validáciu pravidlami (napr. kontrola číselných hodnôt, formátu ceny) a prípadne doplniť manuálnu kontrolu pre nejednoznačné prípady. Takýto systém by umožnil spracovať veľké množstvo rôzne formátovaných podkladov efektívne a škálovateľne.
Navrhol by som workflow, ktorý pravidelne monitoruje verejné FB stránky vybraných subjektov (napr. pomocou API alebo scraping nástroja). Získané údaje o podujatiach by AI spracovala, odstránila duplicity a prevedla do jednotného formátu (názov, dátum, miesto, popis).
Z týchto údajov by sa generoval RSS feed. Následne by AI preložila obsah do angličtiny a vytvorila paralelný anglický feed. Proces by bežal automaticky v pravidelných intervaloch a umožnil by jednoduchú aktualizáciu turistického kalendára bez manuálnej práce.
Moje silné stránky sú, že sa rýchlo učím nové veci, som zodpovedný a zaujímam sa o technológie a AI. Moja slabšia stránka je slovenský jazyk, ktorý ovládam na úrovni B1–B2, ale aktívne sa ho zlepšujem.Som študent informatiky so silným záujmom o AI a nové technológie. Rýchlo sa učím, som motivovaný a zvyknutý hľadať riešenia samostatne. AI nástroje aktívne používam pri štúdiu aj vlastných projektoch, preto verím, že dokážem byť pre firmu užitočný a postupne sa rýchlo zlepšovať. Bývam v Žiline, takže viem pracovať aj on-site.
6
SPŠE/ počitačové systémyUNIZA Fakulta riadenia a Inforamtiky/ Informatika22Áno4,25354122027Kolačkovdohovorím sa/odborné texty čítam bez problémov140-160160-200Claude Opus 4.5 Zatiaľ asi najlepšie AI ktoré mi pomáhalo pri programovaní. Pomáhal my pri vytváraní bakalárskej práci, webovej aplikácií alebo konzolovej hre v jazyku C. Len na vysokej škole a vo vlastnom záujme.Nič konkrétneBakalárska práca na ktorej ešte pracujem. Ide o webovú hru kde využívam menšie LLM modely z Huggingface ktoré mi generujú konverzácie a úlohy pre hráča. Najväčší problém bol nájsť LLM do 4gb kvôli webovej pamäti. Tým že som využíval menšie modely nie každý bol schopný generovať úlohy bez nejakých väčších problémov. Nakoniec som našiel model gwen ktorý fungoval celkom dobre.NiePracoval som s REST API v rámci menších projektov. Používal som hlavne HTTP requesty (GET, POST), spracovanie odpovedí a ošetrenie chýb.1.Načítal by som maily cez API a vyčistil ho pomocou OCR,
2.Pomocou nejakej LLM by so získal čo potrebujem(cenu, typ, výšku zľavy..), ktoré by sa uložili do JSON formátu.
3.A po ich overení ich uložil do databázy.
Pravidelne by som získaval dáta z FB stránok. Pomocou nejakej LLM by so získal čo potrebujem, ktoré by sa uložili do JSON formátu. Následne by som podľa dát vytvoril XML. No a na koniec by som to nechal vytvorený RSS feed nechal preložiť pomocou AI do angličtiny.Silne:
Rád sa učím nové programovacie jazyky
Všetko čo robím sa snažím robiť najlepšie ako viem
Programovanie ma baví
Som komunikatívny a viem pracovať v tíme
Slabé:
Nevenujem dôraz na detaily
Občas si beriem na seba viac úloh než ich dokážem zvládnuť v čas
Baví ma pracovať s LLM . Rád by som nabral skúsenosti a zlepšil sa v tejto oblasti čo najviac. Nemám problém sa učiť novým veciam. Som ochotný venovať práci väčšinu svojho času.
7
Varašské lýceum č. 1 (Ukrajina), matematické zameranieTUKE FEI, 1.rok inžinierskeho štúdia Informatiky21Áno6543122027Košice-Severkomunikujem bez problémovPočas semestra viem venovať práci v priemere 80 hodín mesačne. V dňoch bez výučby (celý týždeň okrem stredy a štvrtka) mám vyššiu kapacitu časuPočas prázdnin tak viem venovať práci 100–120 hodín mesačne, pri väčšom projekte aj viac podľa dohody.V poslednej dobe som pocítil najlepši prinos pre vývoj softvéru pri používani generativnych modelov Claude Opus 4.6 a Claude Sonnet 4.6 ako agentov Copilot rozšírení vo väčšine IDE pre vývoj.
Podľa môjho názoru sú to maximálne pokročile modely, ktore sú schopne udržať veľký kontext riešeneho problemu a vďaka čomu nemajú take rychle halucinacie počas vývoja ako napríklad GPT-5.2/3 a jeho verzia Codex. Podľa mojich skúseností môžu modely série Claude vygenerovať veľkú kodovú zakladňu s kvalitným kadom tak aj za jeden prompt, ak je dobre napísaný. Zaroveň, pokiaľ ide o generovanie obrazkov, podľa mňa si rozhranie ChatGPT-5.2 momentalne vedie celkom dobre.
Ano, hoci to nebola oficialna práca ale len projekt, mal som skúsenosti s platformou automatizácie n8n, kde som sa podieľal na orchestrácii RAG agentov, ktorí zase pracovali s údajmi a komunikovali s používateľmiV súčasnosti sledujem rastúce trendy v oblasti AI a webového vývoja prostredníctvom odporúčaní TikTok. Možno to neznie príliš spoľahlivo, ale naozaj som sa dozvedel o mnohých zaujímavých službách, ktoré tak či onak zjednodušujú vývoj/život ako celok, a áno, dozvedel som sa tam aj o rôznych prípadoch automatizácie, vrátane n8n vo svojej dobe. Ak ma niektorá zo služieb zaujme, vyhľadávam si o nej informácie sám. Jedným z mojich zaujimavých projektov bol webový nastroj, ktorý dokáže automaticky „vyfarbiť“ 3D model pomocou proceduralne generovanej šablony (napríklad štýl kameňa, mramoru alebo dreva). To znamená, že používateľ nahraje 3D model, nastaví parametre vzoru a aplikacia z neho vytvori texturu, ktorú potom možno použiť na modeli v iných programoch alebo herných enginoch. Tento projekt síce nesúvisí s automatizáciou ako n8n, Zapier atd., ale napriek tomu je to svojím spôsobom automatizácia, pretože textúra objektu je generovaná aplikáciou na základe matematických vzorcov a nie je nakreslena umelcom.

Pre mňa to bola nová téma (ako 3D grafika a textúrovanie), preto ma zaujímalo, ako súvisia 3D model, jeho povrch a konečný vizuálny efekt. Použil som technologie webove React, TypeScript, Three.js
Chcel by som spomenúť projekt SmartDesk ktorý som spolu so svojím tímom realizoval pre Ústav Výpočtovej Techniky našej univerzity TUKE. Tento ústav je zodpovedný za Helpdesk/Ticket system, ktorý slúži na registráciu a spracovanie operatívnych požiadaviek od používateľov (napr. študentov), kde administrátori systému sú zodpovední za riešenie týchto požiadaviek. V rámci projektu sme vytvorili pracovný proces na báze n8n, ktorý spracováva požiadavky študentov prostredníctvom e-mailu a webového chatbota a odpovedá na základe znalostnej bázy s pomocou RAG agentov. Ako vektorovu databázu pre pracovný tok sme použili Supabase a vizuálne rozhranie som implementoval pomocou frameworku Angular. Systém dokáže posúdiť spoľahlivosť odpovede a ak nenájde informácie, navrhne eskaláciu, to znamena vytvorenie tiketu pre administrátorov. Projekt sme testovali v univerzitnom prostredí a zamerali sme sa na automatizáciu rutinných otázok, aby sme znížili tlak na administrátorov. Tento projekt demonštruje svoju pridanu hodnotu na príklade obdobia záverečných prác, keď veľké množstvo študentov žiada o pomoc s rovnakými otázkami a namiesto toho, aby ich riešil človek, rieši ich AI agent, ktorý im odpovedá v štýle univerzity.Ano, v rámci vyššie uvedeného univerzitného projektu som pracoval s REST API helpdesk systému (RT / REST2). Mojou úlohou bolo naštudovať štruktúru API systemu, endpointy a vytvoriť kolekciu endpointov na platforme Postman, ktorá umožňuje manipuláciu s http požiadavkami v užívateľskom rozhraní prehliadača. Som musiel porozumieť spôsobom autentifikácie a navrhnúť/pripraviť endpointy pre integráciu s naším riešením n8n v buducnosti.Navrhoval by som workflow v n8n, ktorý by automaticky spracovával prichádzajúce e-maily od hotelov, extrahoval z nich informácie a potom pomocou AI agentov vyťahoval potrebné údaje do jasnej a predpísanej štruktúry (všetko, čo sa týka ceny, zľavy, typu atď). K tomu všetkému je potrebné premyslieť aj fázy validacie, kde by model rovnako overoval, do akej miery sú údaje relevantné pre zostavenie štruktury. Napríklad, ak sú údaje neuplné alebo systém nie je istý výsledkom tak informácie nemusia byť hneď vložené do databázy, ale musia byť odoslané na ručnú kontrolu/potvrdenie.
Ak je všetko v poriadku teda údaje sa uložia do databázy alebo CRM. Tento pracovný postup by sa dal rozšíriť tak, aby agenti AI mohli porovnávať ponuky rôznych hotelov, vypočítať nejaky celkový zisk, vybrať najatraktívnejšie ponuky podľa zadaných kritérií a vytvoriť stručnú analýzu pre manažerov alebo koncovych používateľov.
Táto úloha je podľa môjho názoru veľmi podobná predchádzajúcej, len však na výstupe máme iný výsledok údajov. Navrhoval by som jednoduchy workflow v n8n ktorý bude pravidelne zbierať publikácie či udalosti z vybraných Facebook stránok (možno pomocou technológie web scraping alebo, ak sa nemýlim, n8n sám umožňuje priamo načítať verejné zdroje pomocou uzla RSS Read) a spracovavať ich pomocou AI, pričom z príspevkov bude extrahovať kľúčové údaje (názov, dátum, miesto), zjednotiť ich do jednotného formátu (v prípade potreby preložiť text do angličtiny rovno cez nejakeho samotneho AI agenta) a po validácii automaticky vytvoriť jednotny RSS feed pre Turistický kalendár.No, ako svoje silne stranky som uviedol zodpovednosť, schopnosť dotiahnuť veci do konca a ochotu učiť sa nove veci.
Ako moju (slabu stranku) mi počas práce na spoločných projektoch pripomínali, že venujem príliš veľa času detailom, najmä pokiaľ ide o tvorbu webovуho rozhrania UI, kde je potrebne byť zároveň dizajnérom aj vývojárom a kde sa môžem ponoriť do dlhého premýšľania, čo bude vyzerať lepšie, ale kvôli tomu stratím čas...
Myslím si, že som vhodný kandidát na túto pozíciu, pretože ma naozaj motivuje oblasť AI automatizácie, najmä v kombinácii s low-code platformami. Našťastie mám už praktické skúsenosti v rámci univerzitných projektov, konkrétne v spomínanom projekte SmartDesk, kde sme vytvorili AI helpdesk riešenie na báze n8n. Považujem za dôležité uviesť, že náš projekt dosiahol dobré výsledky v praxi a v rámci súťaže IT Živé projekty sa náš tím umiestnil na 5. mieste spomedzi 80 tímov:

https://www.linkedin.com/feed/update/urn:li:activity:7431826936366206976/?utm_source=share&utm_medium=member_desktop&rcm=ACoAAGL5IGQBCqHvzqgb-NJ9v_CMf06iw_7jH9U
8
NAND PRASHAD HIGH SCHOOLTechnical University of Kosice, FEI/INFORMATICS24Áno8633122027Kosicedohovorím sa/odborné texty čítam bez problémov180 to 200 hours in a month180 to 200 hours in a monthI've been most excited about "LangGraph and multi-agent orchestration systems". I'm currently building Pentagon, a five-agent workflow system where specialized AI agents (Guardian, Financier, Scout, Operator, Liaison) collaborate on business tasks. What excites me is how agent-to-agent communication and memory systems create emergent intelligence - the whole becomes greater than the sum of its parts. The shift from single LLM calls to persistent, stateful agent workflows represents a fundamental change in how we build AI applications.Yes, I have direct experience in four relevant areas:

1. AI Agent Development: Built "Pentagon" - a multi-agent orchestration platform using FastAPI, LangGraph, and OpenAI APIs. Five specialized agents handle security, finance, growth, operations, and human communication with shared memory systems (Pinecone, PostgreSQL, Redis).

2. Real-Time Data Processing & Automation: Created an AI-powered energy monitoring system that uses Fetch.ai agents to collect metrics from Proxmox servers, correlate VM resource usage with power consumption, and provide insights through a React dashboard with LangChain/GPT-4 natural language interface.

3. AI-Powered System Automation: Built "BIL" - a voice-controlled AI assistant that integrates GPT-4/Groq APIs with system automation. It performs screen reading (OCR), window management, clipboard operations, and shell execution based on natural language commands.

4. API Integration & Workflow Design: All three projects involve connecting LLMs to external systems, parsing unstructured input, and executing structured actions - exactly what's needed for hotel data extraction and tourism content automation.
I actively follow:

GitHub repositories: LangChain, LangGraph, AutoGPT, CrewAI - I study their architectures and implement similar patterns
AI Twitter/X: Follow @LangChainAI, @OpenAI, @AnthropicAI for product updates and best practices
Reddit: r/LangChain, r/LocalLLaMA, r/MachineLearning for community discussions and troubleshooting
Documentation: OpenAI, Anthropic, Groq API docs - I reference these daily while building
YouTube: AI Engineering channels for architecture patterns and implementation tutorials

I learn by building - my projects are direct applications of techniques I discover in these communities.
Project: AI-Powered Energy Monitoring System (KPI Dashboard)

Problem: Data centers and server infrastructure consume massive energy, but operators lack real-time visibility into which VMs and processes are driving power consumption. Traditional monitoring shows CPU/RAM but doesn't correlate it with actual energy costs. I wanted to create an AI system that monitors server metrics, correlates them with power usage, and provides natural language insights.

Technologies:
- Backend: FastAPI, Fetch.ai uAgents (multi-agent framework), SQLite
- Frontend: React + Vite (real-time dashboard with live charts)
- AI Layer: LangChain + OpenAI GPT-4 (natural language query interface)
- Monitoring: Proxmox API integration, process-level metrics collection
- Architecture: Three-agent system (Master Aggregator, Proxmox Sensor, Guest Process Agents)

Implementation:
1. Proxmox Sensor Agent: Polls Proxmox hypervisor API every 5 seconds, extracts VM CPU/RAM/status
2. Guest Process Agents: Run inside VMs, report top processes and their resource usage
3. Master Agent: Aggregates data, correlates VM usage with total server power consumption, stores in SQLite
4. React Dashboard: Real-time graphs showing host power, per-VM allocation, and process-level breakdown
5. LLM Chat Interface: Users ask questions like "Which VM is using the most power? and GPT-4 queries the database to answer

Result: A working system that:
- Tracks total server power (baseline + dynamic load)
- Allocates power consumption to individual VMs based on resource usage
- Identifies power-hungry processes within each VM
- Provides AI-powered insights via natural language queries
- Updates dashboard in real-time with live metrics

Key Innovation: Multi-agent coordination where autonomous agents collect data at different levels (hypervisor, VM, process) and a central agent correlates everything into actionable energy insights. The LLM layer makes complex data accessible through simple questions.

Real-World Impact: Enables operators to identify inefficient workloads, optimize VM placement, and reduce energy costs by understanding the power footprint of specific applications.
Yes, I have hands-on experience with n8n for workflow automation:

What I've used n8n for:
- API workflow orchestration: Connecting multiple services in sequence (trigger → process → action chains)
- Data transformation: Using n8n's built-in nodes to parse, filter, and restructure data between systems
- Webhook integrations: Setting up HTTP endpoints to receive data and trigger automated workflows
- Scheduled automation: Cron-based triggers for periodic data collection and processing tasks

Understanding of the platform:
- Node-based workflow design with conditional branching
- Error handling and retry logic
- Data mapping between different API schemas
- Combining no-code nodes with custom JavaScript/Python code when needed

I also understand the underlying principles deeply from building custom automation systems (Pentagon, KPI Monitor), which gives me insight into when n8n is the right tool vs. when custom code is more appropriate.

Practical approach: I use n8n for rapid prototyping and standard integrations, then move to custom code when workflows require complex logic or performance optimization.
Yes, extensive API experience across both projects:

AI/LLM APIs:
- OpenAI API (GPT-4, GPT-3.5-turbo, TTS): Used in both Pentagon and BIL for natural language understanding, response generation, and text-to-speech
- Groq API (Llama models): Integrated as faster alternative for real-time responses in BIL
- Anthropic Claude (planned): Architecture ready for multi-provider support in Pentagon

Integration Patterns:
- Structured output parsing: Extract JSON from LLM responses to trigger system actions
- Function calling: Implement tool use where LLM decides which API to call based on user intent
- Streaming responses: Handle SSE (Server-Sent Events) for real-time AI responses in web UI
- Error handling & fallbacks: Groq → OpenAI → local model cascade when APIs fail

External Services (Pentagon connectors):
- Stripe API (payment processing)
- Slack API (notifications)
- Gmail API (email monitoring)
- GitHub API (repository tracking)
- Notion API (knowledge base)
- HubSpot API (CRM integration)

Example: In Pentagon, when a user asks "What invoices are overdue?", the Financier agent:
1. Calls Stripe API to fetch invoice data
2. Sends data to GPT-4 for analysis
3. Returns structured response via WebSocket to frontend
Solution Architecture:

1. Email Ingestion Layer
- Gmail API webhook triggers on new emails from hotel domains
- Filter by sender whitelist or subject line patterns ("offer", "special", "discount")
- Store raw email in staging database with metadata (sender, timestamp, thread_id)

2. AI Extraction Pipeline`
Email → GPT-4 with structured prompt → Validation → Database


Prompt Engineering:

Extract hotel offer details from this email:

Required fields:
- hotel_name: string
- offer_type: "percentage" | "fixed_amount" | "package" | "other"
- discount_value: number
- original_price: number (if available)
- discounted_price: number
- valid_from: ISO date
- valid_until: ISO date
- room_type: string
- conditions: string (restrictions/requirements)

Email content:
{email_body}

Return ONLY valid JSON. If field is missing, use null.
```

3. Validation Layer
- Check required fields are present
- Validate date ranges (valid_until > valid_from)
- Verify price logic (discounted < original)
- Flag anomalies for human review (e.g., 90%+ discounts)

4. Database Write
- Insert into `hotel_offers` table with standardized schema
- Create audit log entry
- Trigger notification if high-value offer

5. Continuous Improvement
- Store failed extractions for retraining
- Use few-shot examples from successful parses
- Build hotel-specific extraction rules for frequent senders

Fallback: If GPT-4 confidence is low, route to human review queue with suggested values pre-filled.

Cost optimization: Use GPT-3.5-turbo for initial extraction, GPT-4 only for complex/ambiguous emails.
Workflow Design:

Phase 1: Event Collection

Facebook Pages → API Scraper → Raw Events DB


Implementation:
- Use Facebook Graph API with `/{page-id}/events` endpoint
- Scheduled job (cron): runs every 6 hours
- For each monitored page:
- Fetch events with `since` parameter (only new/updated)
- Extract: title, description, start_time, end_time, location, cover_photo
- Store in `raw_events` table with source_page and fetch_timestamp

Phase 2: Standardization & Translation

Raw Events → GPT-4 Processor → Standardized Events


AI Processing:

Standardize this event description:

Original (may be in Czech/Slovak):
Title: {title}
Description: {description}
Location: {location}

Output format:
{
"title_en": "Short, clear English title",
"description_en": "2-3 sentence description in English, highlighting what makes this event unique",
"category": "music|food|culture|sports|family|nightlife",
"audience": "families|adults|tourists|locals",
"price_range": "free|budget|moderate|premium",
"keywords": ["tag1", "tag2", "tag3"]
}

Keep descriptions engaging and tourism-focused.


Phase 3: RSS Feed Generation

Standardized Events → RSS Builder → Public Feed


RSS Structure:
xml
<rss version="2.0">
<channel>
<title>Tourism Calendar of Events</title>
<item>
<title>{title_en}</title>
<description>{description_en}</description>
<pubDate>{start_time}</pubDate>
<category>{category}</category>
<link>{facebook_event_url}</link>
<enclosure url="{cover_photo}" type="image/jpeg"/>
<guid>{event_id}</guid>
</item>
</channel>
</rss>


Automation Flow (using n8n or custom):
1. Trigger: Cron schedule (every 6 hours)
2. Node 1: Facebook API - fetch events
3. Node 2: Filter - only future events, deduplicate
4. Node 3: OpenAI API - translate & standardize
5. Node 4: Database - insert/update events
6. Node 5: RSS Generator - rebuild feed XML
7. Node 6: Upload to CDN/static hosting

Enhancements:
- Image optimization (compress cover photos)
- Duplicate detection (same event posted by multiple pages)
- Quality scoring (prioritize well-described events)
- Email digest (weekly summary to tourism board)

Monitoring: Track API rate limits, translation costs, feed update frequency.
Strengths:
1. Rapid prototyping: I build working systems quickly - Pentagon went from concept to functional prototype in 5 days
2. AI integration expertise: Deep understanding of LLM APIs, prompt engineering, and structured output parsing
3. Full-stack capability: Comfortable with backend (Python/FastAPI), frontend (React/Next.js), and databases
4. Problem-solving mindset: I don't just use tools - I understand how they work and can build alternatives when needed
5. Self-directed learning: All my AI knowledge is self-taught through building real projects

Weaknesses:
1. Tourism domain knowledge: My projects are in finance/productivity, not tourism (though technical skills transfer)
2. Perfectionism: Sometimes I over-engineer solutions when simpler approaches would work
3. Documentation: I focus on building first, documenting later - need to improve parallel documentation habits
I'm a suitable candidate because I've already built what you're looking for:

1. Proven AI Agent Experience
You need someone who can design AI workflows - I've built THREE multi-agent systems from scratch (Pentagon, BIL, and KPI Monitor). I understand agent orchestration, memory management, tool use, and real-time data processing at a deep level.

2. API Integration is My Core Skill
My projects are essentially API orchestration platforms. I connect LLMs to databases, external services, and user interfaces daily. The hotel email parsing and Facebook event monitoring you described are similar to problems I've already solved.

3. Automation Mindset
I don't just write code - I build systems that run autonomously. My BIL assistant executes complex multi-step workflows from natural language commands. I think in terms of triggers, conditions, and actions.

4. Fast Learner with Hands-On Approach
I learned LangGraph, FastAPI, and agent architectures in weeks by building real projects. I'll apply the same approach to n8n/Make and your specific tourism workflows.

5. I Care About Results
My EMI Khata app is used by real loan officers. My KPI monitor tracks real server infrastructure. My AI agents solve real business problems. I build tools that work, not just demos.

What I'll bring: Technical depth, practical AI experience, and the ability to turn "extract hotel offers from messy emails" into a working system within days.
9
Technicka Univerzita v Kosiciach/ InformatikaInformatika 3 r.20Áno5,5453122026Kosicekomunikujem bez problémov100 hodín mesačne120-130 hodín mesačneClaude. Pretože zatiaľ je to pre mňa jeden z najlepších a najinteligentnejších nástrojov na písanie kóduÁno, už som predtým pracoval na podobnej pozícii. Vyvíjal som CRM systémy, vzdelávacie platformy a mnoho ďalšieho.Nie, nové veci vo svete sledujem iba na YouTube a Instagrame.Toto bol pravdepodobne môj prvý seriózny projekt, obchod s elektronikou. Na styling som používal React, TypeScript, Redux a SCSS. Bolo pre mňa ťažké pracovať s API a Reduxom.Áno, spolupracoval som s n8n, keď som mal podobnú prácu. Robil som architektúru pre pokutovanie zamestnancov, ak vymeškali deň práce.Pracoval som s CRM pri práci na projekte v podobnej spoločnosti1. Automatický zber listov
2. AI extrahuje cenu a zľavu vo formáte JSON
3. Pravidlá sú normalizované a kontrolované
4. Dáta so skóre spoľahlivosti sú zapisované do databázy
5. Podozrivé prípady sú kontrolované osobou
6. Systém sa učí z opráv
Я б створив автоматичний збір подій через Facebook API, далі AI стандартизує опис у єдину схему даних. Після нормалізації система генерує дві версії — оригінальну та англійську. Перевірені події зберігаються в базі та автоматично публікуються у двох RSS-каналах. Сумнівні записи потрапляють на ручну перевірку, а система навчається на виправленнях.Silné stránky: spoľahlivý, trpezlivý, komunikatívny, rýchlo sa učí, tímový hráč
Slabé stránky: perfekcionizmus, lenivosť
1. Mám skúsenosti na podobnej pozícii.
2. V tejto oblasti pracujem 3 roky.
3. Hovorím 3 jazykmi: slovensky, anglicky a ukrajinsky.
4. Som priateľský a pripravený na kritiku a zlepšovanie svojich zručností.
10
Stredná odborná škola drevárska/dizajn nábytku a interiéru Žilinská univerzita,riadeniea informatika ,Informatika a riadenie, 25Áno6345122027Bacúrov 83dohovorím sa/odborné texty čítam bez problémov80h a viac80h a viacGitHub, sora , najviac ale využívam vseobecne chatgptPracujem ako vyvojar pre firmu JMS, kde riešime informačný systém pre kúpele a hotely. Sam riešim android aplikácie, webové aplikacie, api.Samouk. Čo potrebujem k vývoju, to si vyhľadám. Android aplikácia na objednávanie stravy, ktorá komunikuje s informačným systémom, reaguje na náramky kúpeľov, kúpalisk a hotelov.NieÁno pracoval, prenajal som externú SQL databázu s android a webovými aplikaciami. Extrahoval by som JSON a zisťoval jednotlivo postupne meno, priezvisko, spoločnosť, aký pobyt, zľava, atď...Navrhol by som to tak, že systém bude pravidelne sledovať vybrané stránky organizátorov, automaticky z nich stiahne informácie o podujatiach, upraví ich do jednotného a prehľadného formátu, odstráni duplicity a z týchto údajov potom vytvorí jeden spoločný kalendár v slovenčine aj jeho automaticky preloženú verziu v angličtine.silné : pracovitosť, analytické myslenie, kreativita
slabé: nedočkavosť, nízka trpezlivosť
Pracujem s informačným systémom pre kúpele a hotely, kde momentálne pravidelne pracujem s umelou inteligenciou. Som kreatívny, nápaditý a myslím si, že implementácia AI je budúcnosť, ktorá sa nedá odvrátiť tak sa jej snažím prispôsobiť.Živnostník
11
Názov školy / Odbor (VŠ) Technická univerzita v Košiciach (TUKE) Fakulta elektrotechniky a informatiky (FEI) Odbor: Inteligentné systémy Bc. (2022 – 2025) → Ing. (2025 – doteraz)Inteligentné systémy – inžinierske štúdium (Ing.) FEI TUKE21Áno5453122027 (predpokladané) – keďže Ing. štúdium je 2-ročné a začalo v 2025.Košice, Košice-Juhkomunikujem bez problémov87h mesiac173h mesiacZa posledný mesiac ma najviac nadchli CLI AI nástroje – konkrétne Claude
Code a GitHub Copilot CLI. Práca v termináli mi vyhovuje oveľa viac ako
webové rozhrania, pretože všetky moje LLM agenti, súbory a inštrukcie mám
priamo u seba na počítači. To mi umožňuje vyhnúť sa opakovaným promptom a
okamžite prejsť k samotnej práci.

V prípade GitHub Copilot CLI mám vďaka študentskému paketu prístup k
najmodernejším modelom – GPT, Claude aj Gemini – čo mi dáva flexibilitu
vybrať si ten najvhodnejší nástroj pre každú úlohu.
Nedávno som mal spolu so svojím tímom príležitosť reprezentovať firmu z USA HAMSTA.AI na podujatí Živé IT projekty & InvestechSkills 2026.
https://www.linkedin.com/posts/mykyta-holovchyk-195b77348_recently-together-with-my-team-i-had-the-activity-7425659026375622656-rzvJ?utm_source=share&utm_medium=member_desktop&rcm=ACoAAFcGq0EBpfod33jMZsu7CoeOcct262kURMc

Vyvinuli sme AI telefónneho bota určeného na automatizáciu objednávania termínov pre očné kliniky (eye-care clinics) — s cieľom znížiť počet zmeškaných hovorov, zlepšiť skúsenosť pacientov a odbremeniť recepciu.

Z technického hľadiska riešenie kombinuje generovanie hlasu a spracovanie reči pomocou ElevenLabs s backend logikou bežiacou na cloud infraštruktúre v Amazon EC2. Implementoval som API integráciu, spracovanie hovorov (speech-to-text → business logika → text-to-speech), synchronizáciu termínov cez REST API a návrh škálovateľnej architektúry s nízkou latenciou.

Kľúčovou technickou výzvou bola konfigurácia bezpečnej komunikácie medzi cloud inštanciou v EC2 a ElevenLabs — konkrétne správne nastavenie SSL/TLS certifikátov, trust chain a zabezpečenie stabilného HTTPS spojenia medzi službami. Riešil som validáciu certifikátov, handshake problémy a optimalizáciu sieťovej komunikácie tak, aby bol prenos spoľahlivý, bezpečný a produkčne nasaditeľný.
Sledujem trendy na:
- Reddit – relevantné AI subreddity (napr. r/MachineLearning,
r/LocalLLaMA)
- Discord – AI komunity a servery
- X (Twitter) – sledujem kľúčové osobnosti ako Andrej Karpathy, Sam Altman
a ďalších lídrov z oblasti AI

Okrem toho jedným z mojich hlavných zdrojov je môj vedúci diplomovej práce,
keďže študujem na Ústave umelej inteligencie (FEI TUKE) – kde mám množstvo
vyučujúcich, s ktorými pravidelne diskutujem o aktuálnych témach každý
týždeň na prednáškach.
V rámci univerzitného projektu sme v tíme troch ľudí vyvinuli webovú aplikáciu inšpirovanú službou Wolt. Tím tvorili frontend developer, backend developer a ja zodpovedný za ML a integráciu AI.
Moja úloha bola naintegrovať AI chatbota priamo do používateľského rozhrania. Chatbot mal prístup k aktuálnemu košíku zákazníka a pomocou gemini-2.5-Flash.API vedel komentovať výber v reálnom čase — odhadnúť kalorický obsah, navrhnúť podobné jedlá atď.
Výsledok: fungujúci prototyp s AI vrstvou pre donáškovú službu.
Vyskúšal som n8n na posielanie obsahu z novín pomocou RSS read f-cie na môj Discord server na účely učenia. Self-hostoval som ho a spustil pomocou Dockeru podľa návodu na GitHube.Áno, pracoval som s API pri projekte na ED Hackathone (Erste Digital), kde
sme vyvíjali AI investičného poradcu s prediktívnym modelovaním výnosov.
Chatbot bol integrovaný priamo do bankovej aplikácie a slúžil ako jadro
celého riešenia. Ako bezplatné a výkonné riešenie som využil Gemini Flash
2.5 API. Za kvalitne napísaný kód sme získali ocenenie „Špeciálna cena".
1. Príjem e-mailu → n8n IMAP/Gmail trigger zachytí nový e-mail od hotela
2. Extrakcia dát cez LLM → e-mail (predmet + telo) sa odošle do Claude/GPT cez API s promptom, ktorý vráti štruktúrované JSON: { "hotel": "...", "zľava": "30%", "platnosť": "...", "podmienky":
"..." }
3.n8n HTTP node zapíše dáta do katalógu
- n8n každých 6 hodín stiahne udalosti z FB stránok cez Graph API
- LLM zjednotí formát popisu (názov, dátum, miesto, krátky popis)
- výstup → RSS feed; druhý branch to isté preloží do angličtiny

Problémy:

- rôzne formáty a jazyky popisov. riešia LLM prompty s few-shot príkladmi
- rate limiting API, musim volania rozložiť v čase, cachovať výsledky
Silné stránky:
Som adaptívny a komunikatívny. Sledujem nové nástroje a trendy v oblasti umelej inteligencie, rozumiem promptingu, AI agentom a moderným LLM modelom. Mám dobrú znalosť angličtiny, kritické myslenie a silnú motiváciu neustále sa učiť a zlepšovať.

Slabé stránky:
Zatiaľ mám menej pracovných skúseností. Niekedy venujem viac času analýze problému, aby som našiel čo najlepšie riešenie, no pracujem na lepšom time manažmente.
Pracujem aktívne s AI nástrojmi každý deň – konkrétne s Claude Code CLI, GitHub Copilot CLI a ChatGPT – a nie len ako používateľ, ale ako niekto, kto ich integruje do reálnych pracovných postupov. Rozumiem princípom prompt engineeringu, agentic AI a automatizácie, čo mi umožňuje rýchlo experimentovať s novými nástrojmi a adaptovať ich na konkrétne úlohy.Študent
12
SPSE Zochova telekomunikacne technologie MBA 32Áno1533112024Bratislavakomunikujem bez problémovpodla dohody 20+ hodin tyzdenne neriesim rozdiel medzi prazdninami Codexbar/clawdbot/swarmboti 1-implementacia viacerych AI modelov naraz 2-lokalne fungujuci bot 3- siroka funkcionalita kombinacie botov ktory riesia velmi komplexne tasky vedia sa navzajom managovat kontrolovat atdimplementacia automatizacie procesov cez N8N pre malu firmu, produkcia custom bookingoveho softu (aktualne v rieseni)prioritne socialne siete nasledne konzultacie s AI o vyuziti potom potencialne testovanie a implementacia niekedy uzavrete skupinyautomatizacia zberu dat od novych klientov, automaticke tvorenie cloudovych zloziek/crm zloziek novych klientov, transcript netextovych dokumentov na textove nasledne odhady naceneni hlavny problem bol forma v akej sa data dostavali od novych klientov a ich strukturalna nekonzistencia N8N - spomenute vyssie google/superfaktura/crm/abbyak sa od konkretneho hotela forma nemeni da sa to priamo selektovat v JSON co su validne data a nastavit pre kazdy hotel kluc podla ktoreho sa tahaju data do workflowu, druha moznost ako prvy krok nechat ai model selektovat data a postupnym spracovanim mnozstva dat ho "naucit" ako ich ma selektovat samozrejme je to spojene s vyssou cenou nakolko to bude mat viac API requestov nasledne segregacia dat do databazi tabuliek etc...
nasledne nasledna distribucia na zaklade pozadovanych parametrov a komunikacnych kanalov
zoznam FB stranok naslene tahanie dat cez API bud oficilane alebo sprostredkovane (treba doplnkovy research moznosti) teoreticky vlastny scraper otazne je pravne co to moze obnasat ... vytvorenie jednotnej struktury dat nasledna automaticka selekcia filtrami a z toho tvorba RSS v sk a triger na preklad a rss v ang
potencialne problemy mozu byt podmienky uzivania API cize pravne zmeny v nich atd...
urcite je potrebna implementacia ochrany pred duplicitou vo workflowe
GDPR ....
ADHD (ma svoje benefity aj negativa), obcas nadmerna uprimnost, background v managemente cize porozumenie s tym ako procesy a vztahy vo firmach funguju predosla skusenost, motivacia prace s realnymi projektami nie testovani v sandboxe

k nasledujucim dvom otazkam (hodinova odmena a skusobna doba) je potrebne vediet viac dat nech sa k nim viem vyjadrit a za vyjadrenim si stat
Živnostník
13
Gymnasium №2SJF, AISP17Áno7533112028Willsonova 9expert / tlmočeniePribližne 60 až 80 hodín mesačne (cca 15-20 hodín týždenne). Keďže študujem na STU, preferujem flexibilné rozloženie času a využitie homeworkingu, aby som prácu vedel prispôsobiť rozvrhuCez letné prázdniny som plne k dispozícii a viem práci venovať 120 až 160 hodín mesačne (full-time alebo silný part-timeNajviac ma nadchol koncept 'vibecodingu' a editor Cursor v kombinácii s modelom Claude 3.5 Sonnet. Umožňuje mi to extrémne rýchlo iterovať a vyvíjať vlastné SaaS projekty (v Next.js a Pythone). Namiesto manuálneho písania boilerplate kódu sa môžem plne sústrediť na architektúru, biznis logiku a prepájanie API. Taktiež ma veľmi zaujal vývoj AI agentov a nástroje ako n8n, pretože posúvajú automatizáciu z úrovne 'asistenta' na úroveň 'samostatného pracovníka'Hoci som doteraz nepôsobil na oficiálnej pozícii AI konzultanta vo firme, náplň práce presne zodpovedá tomu, čo robím pri vývoji mojich vlastných SaaS projektov. Pri svojich projektoch denne využívam AI nástroje na generovanie obsahu, automatizáciu kódenia a štandardizáciu dát z rôznych zdrojov. Riešim integráciu API, prompt inžinierstvo a hľadám cesty, ako zefektívniť procesy, aby systémy fungovali čo najviac samostatneNovinky a trendy v AI sledujujem primárne cez komunitu vývojárov na sieti X (Twitter) a platforme Threads, kde komunikujem aj svoj vlastný 'build-in-public' proces. Pravidelne čítam technické fóra na Reddite (napr. r/LocalLLaMA, r/SaaS, r/OpenAI) a som aktívny v Discord komunitách nástrojov, ktoré reálne používam pri vývoji (Cursor, Vercel, rôzne AI API komunity). Taktiež odoberám technologické newslettre ako TLDR AIProblém: Manuálna tvorba rozsiahleho, štruktúrovaného obsahu (napr. pre špecializované e-knihy) je časovo extrémne náročná a ťažko škálovateľná.
Technológie: Na riešenie som použil Next.js a Python v kombinácii s LLM modelmi cez API (Claude/GPT), pričom vývoj som urýchlil pomocou AI editorov a vlastného SaaS boilerplate-u VestaStack.
Výsledok: Vytvoril som AI generátor obsahu, ktorý dokáže na základe vstupných dát automaticky navrhnúť štruktúru a vygenerovať hotový produkt (e-knihu) pripravený na monetizáciu (napr. cez predplatné). Projekt mi ukázal, ako pomocou AI rapídne skrátiť čas od nápadu po hotový produkt
S platformami ako Make a Zapier mám skúsenosti primárne pri rýchlom prototypovaní a prepájaní webových formulárov či notifikácií (napr. posielanie dát z webu do Discord/Slack webhookov). Keďže som programátor (Next.js, Python), zložitejšie automatizácie som doteraz často riešil písaním vlastných skriptov. Avšak vzhľadom na moje štúdium automatizácie na STU a znalosť architektúry API mi nerobí problém bleskovo si osvojiť komplexné workflows v n8n – chápem logiku dátových tokov na pozadí, čo je pri týchto platformách kľúčovéÁno, s API pracujem na dennej báze pri vývoji vlastných SaaS projektov (napr. môj generátor e-kníh alebo projekt VestaStack). Pravidelne integrujem API od OpenAI (GPT-4) a Anthropic (Claude) – odosielam systémové prompty, kontext a spracovávam štruktúrované JSON odpovede, ktoré následne ukladám do databázy. Taktiež mám skúsenosti s prácou s REST API vo všeobecnosti, autentifikáciou a prepájaním frontendových aplikácií s backendovými službamiTento proces by som navrhol automatizovať napríklad cez platformu n8n (alebo Make) v nasledujúcich krokoch:
1. Zber (Trigger): Nástroj (n8n) sa napojí na určenú e-mailovú schránku (cez IMAP/Gmail API) a pri prijatí nového e-mailu od hotela načíta jeho textový obsah.
2. Extrakcia cez LLM: Neštruktúrovaný text odošlem cez API do modelu (napr. Claude 3.5 Sonnet alebo GPT-4o). Modelu nastavím striktný 'System prompt', aby fungoval výhradne ako dátový extraktor.
3. Štruktúrovanie: Model dostane pokyn vrátiť odpoveď výlučne vo formáte JSON s preddefinovanými kľúčmi (napr. {"cena": ..., "typ_pobytu": ..., "vyska_zlavy": ...}).
4. Validácia a zápis: n8n prevezme tento JSON, overí, či nechýbajú povinné hodnoty, a následne cez REST API urobí POST request priamo do databázy Relaxos/firemného CRM. Ak si model nebude istý (napr. chýba cena), n8n môže poslať alert na kontrolu človeku
Navrhujem nasledujúci workflow (napr. v n8n):
1. Zber dát: Keďže oficiálne FB API je veľmi reštriktívne, na monitoring FB stránok by som využil scraping službu (napr. Apify Facebook Pages Scraper alebo RSS.app). Nástroj by pravidelne sťahoval nové príspevky.
2. Štandardizácia a extrakcia (LLM): Surový text z príspevkov odošlem cez API do LLM (napr. gpt-4o-mini). Model dostane inštrukciu ('System prompt') vyextrahovať Názov podujatia, Dátum, Čas, Miesto a Popis, a vrátiť to v striktnom JSON formáte.
3. Tvorba SK feedu: V n8n sa JSON dáta prekonvertujú do štandardizovaného XML (RSS 2.0) a pridajú sa do existujúceho feedu.
4. Anglická vetva (EN feed): Paralelný uzol v n8n vezme štruktúrovaný JSON z kroku 2, pošle ho do prekladača (DeepL API alebo priamo LLM prompt na preklad) a výsledok uloží do separátneho anglického RSS feedu
Silné stránky:
Samostatnosť a ťah na bránku: Vyvíjam vlastné SaaS projekty od nuly, takže viem veci nielen navrhnúť, ale aj reálne spustiť.
Rýchla adaptabilita: Denne pracujem s novými AI nástrojmi a viem sa rýchlo učiť za pochodu.
Technický backgroud: Vďaka štúdiu na STU (SJF) a programovaniu mám silné analytické myslenie.
Slabé stránky:
Občasná tendencia k 'over-engineeringu': Keďže som primárne programátor, niekedy mám nutkanie písať na všetko vlastný kód namiesto použitia hotových no-code riešení. Uvedomujem si to a aktívne sa učím využívať platformy ako n8n, aby som šetril čas.
Nemám zatiaľ rozsiahlu prax vo veľkom korporátnom prostredí (čo však považujem za výhodu pre startupový, flexibilný prístup)
Som ideálny kandidát, pretože pozícia 'Vibecoder' absolútne presne vystihuje môj mindset. Nie som len pasívny používateľ ChatGPT. Som vývojár, ktorý na báze LLM a API reálne stavia vlastné aplikácie a hľadá spôsoby, ako automatizovať rutinu.
Rozumiem výzvam, ktoré prináša prepájanie rôznych systémov a neštruktúrovaných dát. Hľadáte niekoho, kto bude samostatne experimentovať a pretavovať AI novinky do firemnej praxe – a to je presne to, čo robím vo svojom voľnom čase na vlastných projektoch. Rád by som túto energiu, technické know-how a chuť inovovať priniesol do Vášho tímu
14
TUKEFEI, Informatika19Áno5,5443112027Košicekomunikujem bez problémov8080Claude Opus a Codex sú skutočne výnimočné voľby pre programovanie, umožňujú veľmi rýchlo vypracovať akekoľvek zadanieVyvíjal webovú aplikáciu na hackathone pomocou GitHub Copilota a Claude OpusObyčajne pozerám YouTube videá rôznych developerov a čítam príspevky developerov na TwitterVoiceClassifier je môj projekt v Pythone, kde som použil rôzne modely na zlepšenie zvuku používateľa a na separáciu jeho hlasu pre jeho mikrofón. Na hackathone sme s kamarátmi vytvorili chatbot News-GPT, ktorý využíval OpenAI API a NewsAPI, aby boli používatelia vždy informovaní o aktuálnom dianí.Ešte som ne použival.Ano, ten Hackathon projekt o ktorom som povedal vysšie.Navrhol by som automatizovaný proces, ktorý by prijaté e-maily najprv spracoval (extrahoval text z tela správy a príloh) a následne ich odoslal do OpenAI alebo Claude API so štruktúrovaným promptom. Model by z neštruktúrovaného textu vyextrahoval kľúčové informácie - cenu, typ zľavy a jej výšku, a vrátil ich v presnom JSON formáte, ktorý by sa po jednoduchej validácii automaticky uložil do databázy.
Pri väčšom objeme dát alebo špecifických formátoch by bolo možné riešenie rozšíriť o vlastný model (napr. BERT v TensorFlow) na presnejšiu extrakciu.
V prvom kroku pomocou Facebook Graph API pravidelne (napr. každých 6 hodín) budem sťahovať udalosti z preddefinovaných FB stránok. V druhom kroku neaky LLM zjednotí formát popisov, doplní chýbajúce informácie a vygeneruje štruktúrovaný výstup. V treťom kroku zo štruktúrovaných dát vytvorim RSS feed (XML) a uložím ho na server.Silné stránky: Som zodpovedný, rýchlo sa učím nové technológie a rád pracujem v tíme.
Slabé stránky: Niekedy sa príliš kriticky hodnotím a stále si budujem praktické skúsenosti v práci.
„Myslím, že som vhodný kandidát na túto pozíciu, pretože mám skúsenosti s modernými AI nástrojmi a vibecodingom. Počas projektov som pracoval s Claude Opus, Codex, Copilot a ďalšími LLMkami na generovanie a automatizáciu kódu. Okrem toho viem písať kvalitný kód, rád sa učím nové technológie a spolupracujem v tíme, aby vznikol funkčný a dobre spracovaný software.
15
SPŠ DopravnáUCM FMK mediálne štúdie - web45Áno6443112007Šelpice, okr. Trnavadohovorím sa/odborné texty čítam bez problémov1600OpenClaw, Google agents, Claude codeAI transformácia vnútorných procesov firmyhttps://www.facebook.com/aifreeprompts, https://www.facebook.com/groups/2318515738653300, https://www.facebook.com/groups/1603288670135319,
https://www.facebook.com/groups/770013594406867,
https://www.getsnippets.ai,
https://www.facebook.com/groups/1348711550214520,
https://www.facebook.com/groups/795524902323495,
https://www.facebook.com/groups/3307555049543634
seoflash.sk, prepojenie globalnej AI na webZapier - maily na tiketyhromadne spracovanie odpovedi do faq, spracovanie slovnikov tematickych a vygenerovanie komplexnych teytov odbornych podla promptovAutomatizovaný flow cez LLM (napr. chatgpt-4o) extrahuje dáta z e-mailov do JSON formátu a cez API ich zapíše do katalógu. Systém následne automaticky notifikuje zamestnancov cez Slack na finálne schválenie.Python kód periodicky scanuje FB stránky, LLM (chatgpt-4o) extrahuje dáta do jednotného formátu a následne ich druhým promptom preloží do angličtiny, pričom výsledok publikuje ako štruktúrovaný RSS feed.schopnosť rozlúsknuť problém, a niekedy sa až moc do niečoho vŕtamprax a záujemŽivnostník
16
TUKE Strojnicka FakultaTUKE Strojnicka fakulta riadenie a ekonomika podniku20Áno6443112026Kosicekomunikujem bez problémov120160Ma už dlhší čas inšpiruje myšlienka agentov. Myslím si, že za nimi je budúcnosť, a neustále sa dozvedám o nových spôsoboch, ako ich ľudia využívajú.Áno, mám pomerne veľké skúsenosti s n8n – na jej báze som vytvoril veľmi komplexný systém pre agentúru, ktorá spravuje sieť spravodajských kanálov.

Je to pohodlný administratívny panel, ktorý pomáha s tvorbou obsahu, plánovaním, kontrolou práce zamestnancov a parsovaním (zbieraním) obsahu.
Som členom mnohých Telegram kanálov zameraných na AI. Je ich naozaj veľa a každý sa venuje inej téme – od automatizácií cez prompty, nové funkcie až po príklady kreatívov.Áno, vyššie som písal o projekte, na ktorom som pracoval. Najnáročnejšie bolo implementovať mechaniku plánovania publikovania obsahu a vytvoriť kvalitný parser.

Používal som n8n, vytvoril som vlastný server a nasadil ho na svojom PC, úzko som spolupracoval zo Telegramom.
Ano, n8nAno, GPT a CRM EasyWeekN8N
Trigger - prečíta e-mail a vytiahne text

ChatGpt spracuje text a vráti dáta v JSON formát - názov, výška zľavy, platnost.....

IF - Systém skontroluje, či su všetky povinné údaje.

API nahrá do katalógu a odošle notifikáciu zamestnancom na Ak dáta chýbajú, odošle e-mail operátorovi
Volanie externého API na stiahnutie dát z FB s

AI - Prompt na extrakciu dát do JSON (Názov, Dátum, Miesto, Popis)

DeepL - Preklad vygenerovaného JSONu do angličtin

Airtable - Vyhľadanie záznamu podľa názvu a dátumu.

IF Node: Kontrola, či udalosť už existuje

True = Update Node (aktualizácia detailov).
False = Create Node (zápis novej udalosti do DB).

Webhook Vytvorenie koncového bodu, ktorý na vyžiadanie zoberie dáta z databázy a naformátuje ich do štandardizovaného stavu
Som veľmi pracovitý, neviem si predstaviť, kam by som dával voľný čas, ak by som nepracoval. Rád si stanovujem jasné ciele a systematicky ich dosahujem.

V kreativite som slabší, je pre mňa ťažké vytvoriť dizajn alebo napísať pekný text. Na druhej strane viem byť kreatívny pri riešení problémov- nachádzam zaujímavé a efektívne riešenia.
Výborne sa vyznám v AI a no-code nástrojoch. Som pracovitý, pripravený pracovať veľa a efektívne, sústredím sa najmä na výsledok. Som veľmi zodpovedný a mám rád tímovú prácu.Študent
17
STU MTF Aplikovana informatika21Áno10523102027Trnavadohovorím sa/odborné texty čítam bez problémov100140Anti-Gravity - cenan8n, automatizacia emailov pre podnik, kde automaticke posielame emaily ked zakaznik nechal tovar v kosiku / nezaplatil ho, ked obchod ma nove ponukyniedjango web servis pre autoskolu (dashboard + CRM system)n8n, automatizacia emailov pre podnik, kde automaticke posielame emaily ked zakaznik nechal tovar v kosiku / nezaplatil ho, ked obchod ma nove ponukyano, pri projekte s n8nparsing data, regular expressionNajprv nastavíte scraper (napríklad Apify alebo RSS.app), ktorý bude v pravidelných intervaloch vyťahovať dáta z URL adries Facebook podujatí vybraných subjektov. Tieto surové dáta pošlete do automatizačnej platformy Make (bývalý Integromat).

V rámci Make vytvoríte scenár, ktorý pre každé nové podujatie vykoná tri veci: očistí text od balastu a zjednotí formát (napríklad Názov, Dátum, Miesto, Popis), následne tento očistený text pošle cez DeepL API na preklad do angličtiny a nakoniec obe verzie (pôvodnú aj preloženú) zapíše do dvoch samostatných RSS výstupov.

Výsledkom budú dve statické URL adresy s vašimi feedmi, ktoré sa budú automaticky aktualizovať vždy, keď sa na sledovaných FB stránkach objaví niečo nové.
Silné stránky:
Efektivita
Technický nadhľad
Minimalizmus

Slabé stránky:
Nulová trpezlivosť s "bullshitom"
Stručnosť hraničiaca s kryptickosťou
Riskantný pragmatizmus
Na túto pozíciu som ideálny kandidát, pretože nie som teoretik, ale praktik, ktorý hľadá najkratšiu cestu k funkčnému výsledku. Mojou silnou stránkou je, že sa zbytočne nehrám s kódom tam, kde sa dajú prepojiť hotové nástroje a API, aby systém bežal za pár hodín. Výborne chápem logiku automatizácií v n8n alebo Make a viem presne, ako ich prinútiť spolu komunikovať.

Mám cit na to, aby som okamžite pochopil podstatu problému a bleskovo fixol akékoľvek bugy alebo technické sračky, ktoré pri spracovaní surových dát nevyhnutne vyskočia. Kým iní budú študovať dokumentáciu, ja už budem mať hotový funkčný prototyp, ktorý sám sťahuje, čistí a prekladá obsah. Neustále sledujem nové AI nástroje a viem ich do firmy nasadiť tak, aby reálne šetrili čas a zbavili tím tupej manuálnej rutiny. Skrátka som človek, ktorý tie procesy jednoducho spojazdní a bude to fungovať.
18
Bilingválne gymnázium T. Ružičku ŽilinaFakulta riadenie a informatiky - Biomedicínska informatika23Áno84241020271. mája 230 Strečnodohovorím sa/odborné texty čítam bez problémov60 - 80120Claude.ai hlavne kvôli schopnosti generovať zaujímavé kódynieNa akademickej pôde je AI dosť riešená téma, čiže novinky získavam hlavne odtiaľPracoval som na viacerých zaujímavých projektoch, pričom najzaujímavejšia bola tvorba aplikácie v C++, ktorá využíva klasifikačné algoritmy na vytváranie rozhodovacích stromov a umožňuje sledovať, ktoré atribúty majú najväčší vplyv na výsledok klasifikácie.S oracle APEX, kde som vytvorili webstránku, ktorá komunikovala s databázou na oracle cloude. Išlo hlavne o práci z databázou (mazanie, úprava, vkladanie dát). Áno, rest api v ASP.NET Core - hlavne pri práci z databázou pri webstránkach alebo desktop aplikáciách. Príkladom môže byť forma nemocničného systému pre lekárov. Je viacero spôsobov. Ja by som vybral riešenie cez oficiálne API Gmail API, z ktorej by som dostal obsah mailu. Ten by sa dal vložiť do vybraného AI modelu (napr. chatGPT cez OpenAPI) od ktorej budem očakávať odpoveď v určitom dopredu definovanom formáte. Následne aplikácia validuje výsledky a uloží do databázyPoužil by som API na získavanie obsahu z preddefinovaných stránok (napríklad cez apify), dáta by som následne ukladal do jedného formátu a pomocou napríklad OpenAPI preložil text do angličtiny z ktorého by som následne vygeneroval RSS feed.Medzi moje silné stránky patrí analytické myslenie, schopnosť získavať znalosti samoštúdium, práca s AI a modernými technológiami, znalosti viacerých programovacích jazykov

Slabé stránky - príliš zameraný na detaily, odhadovanie časovej náročnosti
Myslím, že som vhodný kandidát na túto pozíciu, pretože mám skúsenosti s tvorbou rôznych typov aplikácií od webových stránok a desktopových aplikácií, cez prácu s databázami, až po implementáciu klasifikačných modelov. Som zvyknutý riešiť komplexné úlohy od nápadu až po funkčné riešenie a zároveň sa rýchlo učím nové technológie. Baví ma prepájať programovanie s praktickými riešeniami a prinášať konkrétnu hodnotu.
19
Stredná odborná škola Fiľakovo elektromehcanikAplikovaná informatika 20Áno5352102027Ivanicekomunikujem bez problémov50100Chatgpt, používal som na to, aby som sa naučil SQL a vytvoriť webový server v JavaScripteNieInstagram.NieMôj doteraz najzaujímavejší mikroprojekt je vytvorenie vlastného webshopu. Cieľom projektu bolo naučiť sa, ako funguje e-commerce webová stránka od základu – od databázy až po zobrazovanie produktov na stránke.

Projekt zatiaľ nie je dokončený, pretože som ešte len na začiatku. Napriek tomu som sa už veľa naučil. Najväčšou výzvou bolo pochopiť, ako prepojiť databázu s webovou stránkou a vytvoriť dynamický obsah. Použil som SQL na prácu s databázou a JavaScript na vytvorenie webového servera a logiky aplikácie.

Výsledkom je zatiaľ základná verzia dynamickej webovej stránky, ktorá dokáže načítať dáta z databázy a zobrazovať ich používateľovi. Projekt mi pomohol lepšie pochopiť fungovanie backendu aj práce s databázami a plánujem ho ďalej rozvíjať
NieNieNavrhol by som automatizovaný proces v troch krokoch:

Najprv by systém automaticky načítal prichádzajúce e-maily (napr. cez API alebo IMAP). Následne by som použil AI/NLP model na extrakciu kľúčových údajov z neštruktúrovaného textu – ceny, typu zľavy a výšky zľavy – a výstup by bol vo forme štruktúrovaného JSONu.

Nakoniec by prebehla jednoduchá validácia údajov a ich uloženie do SQL databázy.

Takýto proces by minimalizoval manuálnu prácu a umožnil spracovať veľké množstvo rôznych formátov e-mailov automaticky
Navrhol by som automatizovaný proces, ktorý by pravidelne monitoroval vybrané Facebook stránky (cez API), extrahoval údaje o podujatiach a previedol ich do jednotného formátu (JSON).

Z týchto dát by sa generoval RSS feed. Následne by som pomocou AI prekladu vytvoril paralelný RSS feed v angličtine.

Proces by bežal automaticky a pravidelne aktualizoval oba feedy.
Silné stránky:
Rýchlo sa učím nové technológie a mám silnú motiváciu zlepšovať sa. Keď niečomu nerozumiem, aktívne hľadám riešenia a snažím sa pochopiť problém do hĺbky.

Slabé stránky:
Niekedy sa príliš sústredím na detaily, čo mi môže zabrať viac času, než je potrebné. Pracujem však na tom, aby som si lepšie určoval priority a efektívnejšie riadil čas
Neviem povedať, či som najlepší kandidát, pretože určite existujú aj iní kvalitní uchádzači. Môžem však povedať, že ak dostanem príležitosť, dám do toho maximum.

Som motivovaný rýchlo sa učiť, dohnať prípadné medzery v znalostiach a spoľahlivo splniť úlohy, ktoré mi budú zverené. Záleží mi na tom, aby som sa zlepšoval a prinášal tímu reálnu hodnotu.
20
Novodnistrovska gymnázium/Fyzika a matematikaMateriálovotechnologická fakulta STU/automatizácia a informatizácia procesov v priemysle20Áno5451102025Trnavaniečo rozumiem/čítam so slovníkomOd 80 do 130 hodín mesačne (20 – 30 h týždenne)Full-time alebo 130 – 160 hodín mesačne vrátane home officeZa posledný mesiac ma najviac nadchol pokrok v oblasti LLM modelov, najmä Gemini a ChatGPT, hlavne v kontexte automatizácie procesov. S týmito modelmi som experimentoval aj pri mojej bakalárskej práci, kde som využil niektoré algoritmy na spracovanie dát a generovanie výstupov. Fascinuje ma, ako je možné tieto modely prepojiť s workflow nástrojmi, aby nefungovali len ako „chatbot“, ale aktívne spracovávali dáta, analyzovali ich a pripravovali podklady pre ďalšie kroky – napríklad reporting, controlling alebo CRM aktualizácie. Tento praktický posun smerom k automatizácii procesov ma momentálne najviac motivuje skúšať a testovať nové riešeniaÁno, mám skúsenosti s prácou podobnou tejto pozícii z viacerých projektov počas štúdia. Pri mojej bakalárskej práci som analyzoval dáta z mikrokontroléra, vrátane spracovania obrázkov a identifikácie kľúčových bodov, ktoré som následne integroval do online systému v reálnom čase. Model generoval výstupy, ktoré boli automaticky odosielané a slúžili na riadenie systému. Tento projekt mi poskytol praktické skúsenosti s automatizáciou, integráciou dátových tokov a implementáciou AI riešeníNa sledovanie trendov v AI väčšinou čítam blogy OpenAI a Hugging Face, často prezerám diskusie na Reddit r/MachineLearning. Som tiež registrovaný v mailing liste Hugging Face, kde sa zdieľajú novinky o modeloch a nových experimentochMôj doteraz najzaujímavejší projekt zahŕňal dva hlavné experimenty. Po prvé, pri bakalárskej práci som pracoval na spracovaní dát z mikrokontroléra, vrátane analýzy obrázkov a identifikácie kľúčových bodov, ktoré som integroval do online systému na automatizované riadenie procesu. Po druhé, vyvíjal som univerzitný aplikáciu, kde mali používatelia získavať informácie o miestach a lokalizácii priamo v kampuse s podporou online asistenta (bota). Na tieto projekty som používal Python, OpenCV, JavaScript a databázy, pričom cieľom bolo efektívne spracovanie dát, automatizácia a integrácia s online systémami. Oba projekty mi poskytli praktické skúsenosti s AI, automatizáciou a implementáciou riešení, ktoré reagujú na reálne potreby používateľovÁno, mám skúsenosti s low-code/no-code riešeniami, ako napríklad Google Sheets, Airtable a jednoduché skripty v Python/JavaScript na automatizáciu tokov dát a integráciu systémov v rámci univerzitných projektov. Pomáhalo mi to rýchlo prototypovať a testovať riešenia bez potreby kompletného programovania backendu.Áno, pracoval som s REST API pri integrácii dát z externých systémov do univerzitného projektu a pri odosielaní výstupov modelu z mikrokontroléraNavrhol by som proces, kde e-maily od hotelov najprv prechádzajú predspracovaním (napr. odstránenie nadbytočného textu, normalizácia formátu). Potom by AI model (napr. LLM) analyzoval obsah e-mailu a extrahoval konkrétne údaje – cenu, typ pobytu a výšku zľavy. Tieto údaje by sa následne automaticky vložili do databázy cez workflow platformu alebo skript, čím by sa celý proces štandardizoval a zrýchlilNavrhol by som workflow, ktorý pravidelne monitoruje preddefinované Facebook stránky pomocou API alebo no-code nástroja, extrahuje podujatia a štandardizuje ich informácie (názov, dátum, miesto, popis) do jednotného formátu. Z týchto dát by sa generoval RSS feed pre TKP a následne by AI model automaticky prekladal popisy do angličtiny, čím by vznikol druhý feed. Workflow by pravidelne kontroloval nové podujatia a aktualizoval oba feedy, čím by bol proces plne automatizovanýMedzi moje silné stránky patrí analytické myslenie, schopnosť rýchlo sa učiť nové technológie a praktické skúsenosti s AI a automatizáciou pri univerzitných projektoch. Som samostatný, ale zároveň viem efektívne spolupracovať v tíme a zdieľať nápady. Medzi slabšie stránky patrí, že niekedy sa príliš sústredím na detail a chcem, aby bolo všetko dokonale, čo môže spomaliť proces – na tom však aktívne pracujem a učím sa lepšie prioritizovať úlohySom mladý a perspektívny kandidát, ktorý má veľa času venovať práci, ktorú môžem flexibilne kombinovať s mojím štúdiom. Nepozerám sa primárne na vysoké odmeny – mojím cieľom je získať praktické skúsenosti a pracovať na projektoch, ktoré ma skutočne bavia a majú veľký potenciál do budúcnosti. Rýchlo sa učím nové technológie, experimentujem s AI a automatizáciou a motivuje ma vidieť reálny dopad svojej práce. Verím, že tieto vlastnosti a prístup ma robia vhodným kandidátom na túto pozíciu
21
Obchodná akadémia Imricha Karvaša Bratislava - ekonomika a účtovníctvo Univerzita Komenského Fakulta managementu - Management 19Áno7343102028Bratislavakomunikujem bez problémov80-120160Perplexity, lebo velmi dobre analyzuje web plus da sa tam rovno vyuzivat rozne modely aj GPT, Claude, Gemini - takze pouzivam ho na rozne researchy a konzultacie pre sebaAno, skusenosti vibe codingu mam uz dost velke lebo vytvaral som aj niekolko projektov vratane web stranok, botov atd. Pouzivam vacsinou Antigravity a Perplexity plus Nano Banana a Google Veo ked to potrebujem. Mam dobre nastaveny Youtube fyp s roznymi influencermi a autormi ktori publikuju rozne novinky v tejto oblasti.vacsinu projektov mam stale sukromne ale zaujimavym pre mna bolo robit personalnu portfolio stranku lebo ked sa to tyka mna tak s tym rad robim a chcem aby to vyzeralo kvalitne. Velmi rychlo som to spravil cez Antigravity skoro ziadne chyby tam neboli len male veci a vysledok podla mna je skvela stranka so skvelym dizajnom.Ano robil som v Make a Flowise. V make som robil pre oblast GTM Engineering ako test uloha pre kvalitne ziskavanie leadov a odosielanie mailov. Flowise som pouzival na vytvaranie AI asistenta na strankeHej mal so skusenosti s bezplatnymi API ako Grok pre AI asistenta a plus ine open API pre ine projekty takze nemam s tym problem, ako som uvadzal aj predtym ze automatizacie v make tiez vyhovovali API inych servisov pre e-mail validation(napr. zerobounce) a pod.Napojil by som mailbox na pipeline, ktora z e-mailu spravi cisty text, LLM ho prelozi do strukturovaneho JSONu (cena, typ pobytu, typ a vyska zlavy), pravidlami overim konzistenciu a namapujem polia na interne ciselniky Relaxosu, pricom nejasne pripady idu na manualnu validaciu a z oprav sa model postupne uci (takze aj trocha ML)Watchlist FB stranok by som v pravidelnych intervaloch cital cez Graph API alebo RSS-generator, eventy ulozil do DB, normalizoval ich na jednotny model a z neho generoval TKP RSS. Nasledne by som na tento RSS naviazal druhy krok, ktory cez prekladove API alebo LLM prelozi title/description do anglictiny a vytvori paralelny EN RSS feed.Urcite sa rychlo ucim a prisposobujem, ako je zrejme z mojej minulosti. Nebojim sa novych vyziev, pretoze si myslim, ze povedat „neviem“ alebo „nedokazem to“ je v dnesnej dobe leniva vyhovorka. Nevyhodou je, ze si niekedy nie som isty, co mam v zivote robit dalej, ale riesenim je stanovit si realisticky a dosiahnutelny ciel.Aktivne sa venujem vibe kodovaniu a chcem sa v tejto oblasti dalej rozvijat. Som si isty, ze moje podnikatelske a ambiciozne zmyslanie bude vyhodou.Študent
22
Odesa Lyceum No. 69, Odesa, UkraineSTU, fakulta FEI, odbor Aplikovana Informatika19Áno6342102027Odesa, Ukrainekomunikujem bez problémov8080Najviac ma za posledný mesiac nadchol ChatGPT, pretože mám aktívne predplatné a využívam ho denne na učenie. Pomáha mi lepšie pochopiť nové témy, vysvetľuje zložité koncepty zrozumiteľne a zároveň mi asistuje pri zlepšovaní programátorských zručností. Používam ho aj pri tvorbe vlastných projektov - pomáha mi s návrhom riešení, optimalizáciou kódu a hľadaním chýb. Vďaka tomu sa učím rýchlejšie a efektívnejšie.V rámci samoštúdia experimentujem s rôznymi nástrojmi a prístupmi - pracujem na vlastných vývojárskych projektoch, kde riešim návrh architektúry, prácu s dátami a postupnú implementáciu funkcionalít. Mám skúsenosti so samostatným vyhľadávaním technických riešení, štúdiom dokumentácie v angličtine a aplikovaním získaných poznatkov bez priamej IT podpory.Nie som členom žiadneho konkrétneho diskusného fóra ani mailinglistu zameraného na AI. Trendy v oblasti umelej inteligencie sledujem najmä prostredníctvom odborného obsahu na sociálnych sieťach (napr. LinkedIn, YouTube).Môj najzaujímavejší mikroprojekt je webová aplikácia na správu poznámok, ktorú aktuálne vyvíjam. Backend je postavený na C# a ASP.NET Core, kde implementujem REST API metódy na spracovanie požiadaviek, zatiaľ čo frontend využíva JavaScript na komunikáciu so serverom a dynamickú prácu s dátami. Projekt rieši organizáciu a ukladanie poznámok cez vlastnú aplikačnú logiku a oddelenie klient–server architektúry. V ďalšej fáze plánujem pripojiť databázu na perzistentné ukladanie dát a implementovať registráciu a autentifikáciu používateľovNemam Áno, pracoval som s REST API v rámci svojho webového projektu na správu poznámok (C#, ASP.NET Core + JavaScript). Implementoval som všetky základné HTTP metódy - GET, POST, PUT a DELETE. Riešil som spracovanie JSON dát, routovanie endpointov a komunikáciu medzi frontendom a backendom cez HTTP požiadavky.Navrhol by som jednoduchý proces ako MVP. E-maily z jednej schránky by sa automaticky spracovali a pomocou AI by sa z textu vytiahli základné údaje (hotel, termín, výška zľavy, podmienky) do štruktúrovanej podoby. Výstup by sa uložil do databázy alebo tabuľky a následne by sa vybraným zamestnancom automaticky poslal stručný prehľad e-mailom. Pri nejasných údajoch by sa záznam označil na manuálnu kontrolu.Pravidelne by som kontroloval vybrané FB stránky a z nových podujatí by som vždy zobral názov, dátum, miesto, popis a link. Tieto údaje by som uložil a z nich by som vytvoril RSS feed v jednom rovnakom formáte. Z toho istého feedu by som spravil aj anglickú verziu tak, že názov a popis preložím do EN.

Problemy su: obmedzený alebo zmenený prístup k dátam z Facebooku. Neúplné alebo nepresné informácie pri podujatiach. Duplicitné záznamy alebo zmeny dátumu/času podujatia.
Riešenie: kontrola dostupnosti dát, overovanie povinných údajov a ukladanie ID podujatia na správne aktualizácie
Som vytrvalý a systematický, mám schopnosť samostatného učenia a rýchlo sa adaptujem na nové technológie. Pracujem zodpovedne s časom, snažím sa dodržiavať termíny a pristupujem k úlohám analyticky. Mám záujem o neustále zlepšovanie sa v oblasti programovania a AI.
Moja komunikácia v slovenčine ešte nie je na prirodzenej úrovni, ale aktívne na nej pracujem a zlepšujem.
Som vhodný kandidát, pretože mám dostatok času popri štúdiu a silnú motiváciu pracovať na reálnych projektoch. Aktívne sa učím programovanie a AI, pracujem samostatne a rýchlo si osvojím nové nástroje. Chcem získať praktické skúsenosti a priniesť firme reálnu hodnotu.Študent
23
Spš it KNM/ INFORMANÉ A SIETOVÉ TECHNOLÓGIE UNIZA/FEIT/komunikačné a informačné technológie24Áno7,1333102028Oškerda 30dohovorím sa/odborné texty čítam bez problémov100140Agenti - pretože dokážu samostatne plánovať a vykonávať úlohy, nielen odpovedať na otázkyNemámCez XAk nerátam softvér vyvíjaný v predchádzajúcej práci, momentálne už vyše roka pracujem na svojej webovej aplikácii. Využil som HTML, CSS, PostgreSQL, PHP, Python, JavaScript a ChatGPT API….Zatiaľ bez skúseností.GPT, google maps, openstreetmap… pri mojej aplikácií a v predošlej práciE-maily by som centralizoval a pomocou LLM z nich extrahoval štruktúrované údaje (hotel, zľava, platnosť) do JSON formátu. Dáta by sa validovali, uložili do databázy a na základe pravidiel by sa automaticky aktualizoval katalóg a notifikovali vybraní zamestnanci.Pravidelné sťahovanie eventov z FB cez API, normalizácia dát do jednotného formátu a uloženie do DB. Následne generovanie RSS feedu a preklad do EN pomocou LLM.Silné stránky: analytické myslenie, rýchle učenie sa nových technológií, samostatnosť a zodpovednosť pri dlhodobých projektoch.
Slabé stránky: Niekedy som príliš kritický k vlastnej práci a snažím sa ju ešte zlepšovať aj po splnení zadania.
Viem pracovať samostatne na projektoch a preberať zodpovednosť za ich realizáciu. Ovládam viaceré programovacie jazyky, čo môže byť prínosom pre firmu pri návrhu aj implementácii riešení. Dokážem vyhodnotiť situáciu a identifikovať potenciálne problémy ešte pred ich vznikom. Hľadám najvhodnejšie riešenie tak, aby zadanie fungovalo spoľahlivo a efektívne. Úlohy neriešim len s cieľom krátkodobého fungovania, ale navrhujem riešenia s dôrazom na dlhodobú udržateľnosť, škálovateľnosť a kvalitu. Zároveň sa snažím priebežne zlepšovať svoje postupy a sledovať nové technológie.Študent
24
TUKEFEI, Informatika19Áno634292026 (BC), 2028 (Ing)Košicedohovorím sa/odborné texty čítam bez problémov80130V poslednom mesiaci ma najviac zaujal Chatgpt. Neberiem ho ako náhradu práce, ale ako inteligentného asistentaNieNieMomentalne pracujem nad bakalavrkou na temu “Detekcia DDoS útokov pomocou strojového učenia” Použil som niekoľko klasickych ML modelov a dve neuronove siete s cieľom porovnať ich výkonnosť. Predtým som mal zaujímavy projekt v ramci školy. Vyvinul som hru numberlink, projekt zahŕňal backend v Jave so Spring Boot a JPA a frontend v Reacte plus DB (PostgreSQL).NieÁno, pracoval som s REST API v ramci školských projektov. Pri projekte hry Numberlink som navrhol a implementoval backend API v Spring Boote, ktoré komunikovalo s frontendom v Reacte. Získal som skúsenosti s návrhom endpointov, JSON dátami a základnou autentifikáciou.Navrhol by som kombináciu automatizácie a LLM. Najprv by sa e-maily od hotelov automaticky spracovali (napr. cez email webhook), kde by sa oddelil text a prípadné prílohy. Následne by sa obsah e-mailu odoslal do LLM modelu s jasne definovaným promptom, ktorý by extrahoval štruktúrované údaje ako cena, typ zľavy a výška zľavy do JSONu. Výstup by prešiel jednoduchou validáciou a následne by sa uložil do DB.Najprv by som definoval zoznam FB stránok organizátorov. Pomocou automatizovaného procesu by sa v pravidelných intervaloch získavali nové podujatia z ich verejných podujatí.

Získaný obsah (názov, dátum, miesto, popis) by sa normalizoval do jednotného dátového modelu. Neštruktúrovaný alebo nejednotný text by sa spracoval pomocou LLM, ktorý by vytvoril konzistentný popis podujatia v jednotnom formáte.

Z týchto dát by sa následne generoval RSS feed pre TKP. Na vytvorenie anglickej verzie by sa existujúci feed spracoval cez automatický preklad pomocou AI, pričom by sa zachovala rovnaká štruktúra RSS a údaje by sa ukladali ako samostatná jazyková verzia.
Viem sa rýchlo učiť nové technológie a zodpovedne pristupujem k úlohám. Mám skúsenosti s prácou na projektoch od návrhu až po implementáciu a viem pracovať samostatne aj v tíme.
Ako junior mám ešte priestor na zlepšenie v oblasti praktických skúseností, čo aktívne riešim učením sa a prácou na projektoch.
Pretože mam technické základy, analytické myslenie a chuť učiť sa nové veci.
25
SoSTMi / ElektrotechnikaTUKE / Priemiselna elektronika23Áno644192028Kosicedohovorím sa/odborné texty čítam bez problémov150150Claude a Gemini sú momentálne najlepšie, pretože majú najväčšiu pamäť a robia najmenej logických chýb.V rámci technických aktivít som pomocou n8n vyvinul Telegram bota, čím som získal skúsenosti s API a automatizáciou procesov.Reddit, TelegramVytvoril som automatizovaného Telegram bota cez n8n na vzdialené ovládanie mikrokontrolérov.n8n - Telegram botaAno, GeminiNavrhol by som automatizovaný proces pomocou platformy n8n, ktorý by cez IMAP prijímal e-maily, pomocou AI modelu extrahoval kľúčové dáta ako cena a zľava do formátu JSON a následne ich ukladal priamo do databázy.Navrhovaný workflow spočíva v automatizovanom monitoringu sekcie podujatí na vybraných FB stránkach pomocou nástrojov na scraping dát, ktoré následne zjednotia informácie do jednotného formátu v integračnej platforme. Z týchto spracovaných dát sa vygeneruje primárny slovenský RSS feed v štandarde XML, ktorého obsah sa automaticky preloží do anglického jazyka s využitím rozhrania DeepL API alebo Google Translate API. Výsledkom celého procesu sú dva samostatné, pravidelne aktualizované súbory pripravené na distribúciu koncovým používateľom v oboch jazykových mutáciách.Silné stránky: Technické myslenie, zodpovedný prístup k riešeniu úloh a schopnosť rýchlo sa učiť pracovať s novým softvérom alebo hardvérom.
Slabé stránky: Mám tendenciu venovať príliš veľa pozornosti detailom, čo môže niekedy spomaliť tempo práce
Študujem priemyselnú elektrotechniku na TUKE a vo voľnom čase sa venujem vlastným hardvérovým a softvérovým DIY projektom, vďaka čomu som zvyknutý na samostatné štúdium a riešenie technických problémov bez externej IT podpory. Mám silný záujem o automatizáciu a prácu s AI nástrojmi, preto verím, že sa dokážem rýchlo adaptovať na vaše procesy a byť pre tím prínosom.
26
Gymnázium Dubnica nad VáhomElektronický obchod a Manažment23Áno942392027Belušakomunikujem bez problémov80120Gemini, ChatGPT - používam ChatGPT ale všimol som si že Gemini sa poslednou dobou zlepšil, používam pri opravách kódu a pomoci pri programovaní.IT Support Specialist L2 - riešil som IT problémy rôzneho druhu vrátane programovaniaNieStudyBuddy - webová aplikácia pre študentov - nieco ako tinder pre študentov, hľadajú si match na základe záujmov o predmety a môžu sa spolu učit. Appka obsahovala aj Ride sharing a mala AI API.NiePrepojil som llama do StudyBuddy cez API key ako asistenta privada učeníNajskôr by som nastavil systém, ktorý automaticky preberie emaily od hotelov, vytiahne z nich text z tela aj príloh a uloží ich pre prípad kontroly. Následne by AI z tohto textu vyhľadala kľúčové informácie ako cenu, typ pobytu a výšku zľavy a premenila ich na jednotný formát vhodný pre databázu. Pred uložením by sa tieto údaje automaticky skontrolovali, či dávajú zmysel, a ak by si systém nebol istý, poslal by ich na rýchle manuálne overenie. Postupne by sa systém učil z opráv, takže časom by vedel väčšinu ponúk spracovať úplne automaticky bez potreby zásahu človeka.Systém by pravidelne monitoroval FB stránky vybraných subjektov a získaval z nich informácie o nových podujatiach, ideálne cez API alebo existujúce RSS feedy. Tieto údaje by sa spracovali a zjednotili do jednotného formátu, ktorý obsahuje názov, dátum, miesto a popis podujatia. Následne by sa z nich automaticky vytvoril centrálny RSS feed Turistického kalendára podujatí. Z existujúceho feedu by sa pomocou AI zároveň vytvorila aj anglická verzia, kde by sa názvy a popisy automaticky preložili.Silné stránky:
Medzi moje silné stránky patrí analytické myslenie a schopnosť riešiť problémy samostatne. Mám skúsenosti s IT automatizáciou, prácou so skriptami a troubleshootingom, vďaka čomu viem efektívne identifikovať a odstrániť technické problémy. Rýchlo sa učím nové technológie a dokážem ich aplikovať v praxi. Som zodpovedný, proaktívny a dokážem pracovať systematicky aj pod tlakom.

Slabé stránky:
Niekedy venujem príliš veľa času hľadaniu optimálneho riešenia, pretože sa snažím veci pochopiť do hĺbky. Pracujem na tom, aby som lepšie vyvažoval efektivitu a perfekcionizmus. Zároveň si uvedomujem, že mám stále priestor na ďalšie prehĺbenie skúseností v niektorých oblastiach, preto sa aktívne vzdelávam a pracujem na vlastných projektoch.
Na túto pozíciu som vhodný najmä vďaka mojim praktickým skúsenostiam s automatizáciou, programovaním a implementáciou technických riešení v reálnom prostredí. Vytváral som vlastné projekty v Pythone, vrátane automatizačných skriptov využívajúcich Selenium, prácu s API a riešení na zefektívnenie pracovných procesov. Zároveň sa aktívne zaujímam o AI nástroje a ich praktické využitie a mám schopnosť samostatne študovať nové technológie a aplikovať ich bez potreby priamej technickej podpory.

Mám analytické myslenie, rýchlo sa učím a dokážem experimentovať s novými nástrojmi, identifikovať príležitosti na automatizáciu a pretaviť ich do funkčných riešení. Pracoval som aj na vlastnom projekte StudyBuddy, kde som prepájal backend, API a AI funkcionalitu, čo mi dalo praktický pohľad na vývoj a implementáciu digitálnych riešení. Verím, že viem prispieť k zefektívneniu interných procesov Relaxos a pomôcť firme využiť potenciál AI a automatizácie v praxi.
27
STUFEI IKT19Áno743292027Tetiiv, Ukrajinadohovorím sa/odborné texty čítam bez problémov80h150hNajviac ma nadchol pokrok v LLM modeloch, pretože výrazne pomáhajú pri učení programovania, generovaní kódu a vysvetľovaní komplexných konceptov. Ako študent informatiky v tom vidím obrovskú podporu pre rozvoj skillovNiehttps://aitrend.sk/clanky/---Navrhol by som automatizovaný proces, kde sa email najprv prekonvertuje na čistý text a následne spracuje pomocou AI modelu, ktorý z neho vytiahne cenu, typ pobytu a výšku zľavy v štruktúrovanej forme. Výstup by som ešte overil jednoduchými business pravidlami a potom uložil do databázy. Pri nejasných prípadoch by som nastavil manuálnu kontroluNavrhol by som workflow, ktorý pravidelne cez Facebook Graph API načítava podujatia z preddefinovaných stránok. Dáta by sa transformovali do jednotného formátu (názov, dátum, miesto, popis) a uložili do databázy. Následne by sa z týchto údajov generoval RSS feed vo formáte XML. Pre anglickú verziu by som použil automatický preklad pomocou AI modelu a vytvoril paralelný EN feedSom zodpovedný, vytrvalý a rád sa učím nové veci, najmä v oblasti technológií. Keď riešim problém, snažím sa ho pochopiť do hĺbky a nájsť praktické riešenie. Mojou slabšou stránkou je, že niekedy venujem viac času detailom, no postupne sa učím lepšie si nastavovať priority a pracovať efektívnejšieMyslím si, že som vhodný kandidát, pretože mám technické základy, chuť učiť sa a zlepšovať sa. K úlohám pristupujem zodpovedne a keď narazím na problém, snažím sa ho aktívne vyriešiť. Verím, že viem priniesť spoľahlivosť, motiváciu a postupne aj rastúcu hodnotu pre tím
28
Stredná škola č. 28, Rivne, Ukrajina – všeobecné vzdelanieUKF Nitra – FPVaI – Aplikovaná informatika19Áno9,542392026Nitradohovorím sa/odborné texty čítam bez problémov60-70Od júla 2026 približne 160 hodín mesačneClaude 3.5 Sonnet (LLM) ma za posledný mesiac zaujal najviac, najmä vďaka jeho schopnosti pracovať so zložitým kontextom a generovať kvalitný kód. Testoval som ho pri automatizácii pracovného procesu a generovaní skriptov pre svoj projekt. Považujem ho za výkonný nástroj na zvýšenie produktivity, najmä v kombinácii s automatizačnými platformami.Zatiaľ nemám priamu skúsenosť s prácou na podobnej pozícii, ale aktívne sa venujem AI nástrojom a automatizácii v rámci vlastných projektov a štúdia. Testoval som použitie LLM modelov, pracoval som s dátami a snažil som sa nájsť možnosti na zvýšenie efektívnosti procesov pomocou technológií. Som zvyknutý samostatne študovať nové nástroje a aplikovať ich v praxi.https://huggingface.co/
https://www.anthropic.com/
https://openai.com/blog
Riešil som problém každoročného vytvárania novej webstránky od nuly na inej univerzite – namiesto toho som postavil jednotnú multi-ročníkovú platformu s rolami (Admin, Editor, Anonym), WYSIWYG editorom (nahrávanie obrázkov, tabuliek, PDF/doc), priradením editorov k ročníkom a jednoduchým pridaním nového ročníka.
Použil som Laravel 11 (backend) + React + Vite (frontend) + Docker pre vývoj a deployment, s oddelenou architektúrou a podporou file uploadov.
Výsledok: systém umožňuje rýchlo pripraviť čistú, konzistentnú stránku konferencie (bez zbytočného univerzitného balastu), ušetrí desiatky hodín práce tímu každý rok a je plne funkčný na testovacích dátach pre ročníky ako 2024/2025.
Áno, mám praktické skúsenosti s n8n, ktorý používam ako hlavný nástroj pre zložité automatizácie vďaka jeho flexibilite a nízkej cene.
Používal som n8n na každodenné monitorovanie a scrapovanie cien wellness/spa pobytov konkurentov (HTTP + Cheerio), čistenie údajov a kategorizáciu prostredníctvom OpenAI/Claude, vytváranie správ v Google Sheets a zasielanie správ do Telegramu pri výhodných ponukách.
Pracoval som s API, ale len s vlastnými API, ktoré som sám vytvoril a spravoval.
Použil by som n8n workflow spustený cez IMAP trigger, ktorý zaznamenáva všetky nové e-maily od hotelov. Text e-mailu + prípadné PDF prílohy by som poslal do Claude 3.5 Sonnet cez jeden prompt s jasným schémou JSON výstupu. Výsledný JSON by sa automaticky vložil do databázy prostredníctvom HTTP požiadavky na ich existujúce API alebo najskôr do Airtable/Google Sheets ako dočasný buffer s manuálnym schválením.
Navrhujem jednoduchý pracovný proces v n8n, ktorý automaticky sleduje Facebook stránky vybraných subjektov a vytvára štandardizovaný RSS kanál pre turistický kalendár podujatí.
Každých 6 hodín sa spustí Schedule Trigger, ktorý načíta zoznam FB stránok z Google Sheets.
Pre každú stránku sa prostredníctvom HTTP Request stiahne jej RSS kanál.
Príspevky sa filtrujú a odosielajú do Claude 3.5 Sonnet alebo GPT-4o s pevnou požiadavkou, ktorá extrahuje iba relevantné udalosti do jednotného formátu JSON
Duplikáty udalostí sa odstránia a čisté údaje sa uložia v hlavnej tabuľke v Google Sheets.
Z tejto tabuľky sa potom generuje RSS kanál, ktorý sa zobrazuje prostredníctvom webhooku alebo Vercel.
Pre anglickú verziu stačí pridať ďalší krok s prekladom JSON cez ten istý LLM a vytvoriť samostatný EN RSS kanál – všetko úplne automaticky a bez nutnosti použitia Facebook Graph API.
Silné stránky:
Som samostatný, rýchlo sa učím nové veci, som prakticky orientovaný na výsledky, mám dobré základy v oblasti AI + automatizácie (n8n, Laravel, React), píšem čistý kód a myslím hybridne (kód + no-code).
Slabé stránky:
Nemám skúsenosti s externými API tretích strán (OpenAI, Google, CRM), chýba mi dlhoročná skúsenosť s tímovým vývojom a pokročilým DevOps, niekedy sa zameriavam na dokonalosť namiesto rýchleho MVP.
Som samostatný, rýchlo sa učím nové nástroje a využívam ich na riešenie reálnych problémov spoločnosti bez IT podpory.
Mám praktické skúsenosti s automatizáciou (n8n), umelou inteligenciou (Claude/OpenAI), Laravel/React a riešením vašich typických úloh: štandardizácia údajov z e-mailov, monitorovanie cien, tvorba obsahu, RSS kanály.
Ponúkam hybridný prístup (kód + bez kódu), zameranie na rýchly, viditeľný výsledok — presne to, čo Relaxos potrebuje.
29
Sukromné gymnázium v BardejoveTechnická univerzita v Košiciach - informatika27Áno832292023Bogliarkakomunikujem bez problémov8080n8n – na prvý pohľad len ďalší automation tool, ale keď do toho zapojíš AI agentov, je to iné. Môžeš postaviť workflow, ktorý reálne “myslí” – rozhoduje sa, iteruje, volá nástroje.Ano, kazdodenne pracujem s amazonQ, bedrock-om, n8n Na novinky väčšinou LinkedIn .. Nie nie som členom ničoho podobnéhoAko mikroprojekt som využila Amazon Q na prehľadávanie interných dokumentov a znalostnej bázy.
Problém: Informácie boli roztrúsené v rôznych dokumentoch a ich hľadanie bolo časovo náročné.
Riešenie: Využitie Amazon Q na prirodzené vyhľadávanie odpovedí z vlastných podkladov.
Výsledok: Rýchlejšie získanie presných informácií a efektívnejšia práca bez manuálneho prechádzania dokumentov.
V n8n som vytvorila workflow, ktoré automaticky parsuje PDF dokumenty z Google Drive a ukladá výsledky do Google Sheets.

Výsledok: žiadne manuálne prepisovanie a rýchly prístup k dátam.
Pracovala som s API na napojenie chatbota, ktorý pomáha používateľom správne nastaviť parametre pre nasadenie AWS infraštruktúry.Proces by som automatizoval tak, že nový e-mail od hotela sa zachytí a prílohy alebo text sa automaticky extrahujú (OCR pre PDF/Word, tabuľky pre Excel). Následne AI model vyťahuje cenu, typ a výšku zľavy vo formáte JSON, dáta sa validujú a normalizujú a potom ukladajú do databázy. Takto vzniká rýchly a bezchybový tok informácií bez manuálneho prepisovania.Workflow by bol takýto: systém sleduje FB stránky vybraných subjektov, automaticky sťahuje podujatia a preformátuje ich do jednotného RSS feedu. Z tohto feedu sa potom vytvorí verzia v angličtine pomocou automatického prekladu, takže vznikajú dva čitateľné feedy pripravené na TKP.Silné stránky: precízna, analytická, samostatná, rýchlo sa učím a riešim problémy.
Slabé stránky: občas príliš detailná, niekedy pomalšie rozhodovanie kvôli kontrole detailov.
Som vhodná, lebo keď niečo pokazím, spravím z toho nový workflow :)
30
konstantina filozofa nitra, aplikovaná informatika 322Áno8432928Nitraniečo rozumiem/čítam so slovníkom140 hodin 180Zvyčajne používam Gemini, ale na programovanie alebo rutinné úlohy využívam Claude. Je to dosť silný nástroj.Skúšal som automatizovať svoju prácu cez LLM agentov.https://community.n8n.io/categoriesSkúšal som n8n na automatizáciu procesov v programovaní.Skúšal som n8n na automatizáciu procesov v programovaní.Používal som API od Claude pre webovú stránku, kde sa cez neho pracovalo s Claude Code pomocou tokenov.Trigger cez Outlook Node, Cleaning HTML Extract uzla v n8n vytiahneš čistý text z e-mailu, HTTP Request Node z promtom, Cez Code Node overim či je cena číslo a či sú dáta kompletné, Finálne dáta zapíšeš priamo do tvojej databázy1. Fáza: Monitoring a Zber (Vstup)
Facebook stránky sa dnes ťažko monitorujú priamo cez API (vyžaduje to schválenie aplikácie). Máš dve možnosti:

RSS.app / FetchRSS: Tretia strana, ktorá premení FB stránku na RSS feed (najjednoduchšie).

Apify (Facebook Event Scraper): Robustnejšie riešenie. n8n spustí Apify actor, ktorý "vysaje" podujatia z definovaných URL adries.

2. Fáza: Spracovanie a Unifikácia (AI)
Tu prichádza na rad Claude alebo Gemini cez n8n node:

Vstup: Surový text z FB príspevku/udalosti.

Prompt: "Z tohto textu vytiahni: Názov podujatia, Dátum, Čas, Miesto konania a krátky popis (max 300 znakov). Výstup vráť v slovenskom jazyku, v jednotnom profesionálnom štýle pre turistický portál."

3. Fáza: Preklad do angličtiny
Hneď po spracovaní slovenského textu nasleduje ďalší AI uzol:

Model: Claude 3.5 Sonnet (je excelentný v zachovaní kontextu pri preklade).

Úloha: Preložiť unifikovaný slovenský popis do prirodzenej angličtiny.

4. Fáza: Generovanie RSS a Distribúcia
RSS Read/Write Node: n8n zoberie spracované dáta a zapíše ich do XML súboru (RSS formát).

Hosting feedu: Výsledný súbor môže n8n nahrať na tvoj FTP server, do Google Cloud Storage, alebo ho poskytovať priamo cez Webhook Response node (ako živú URL adresu).
Mám background ako full-stack developer a vyvíjal som SaaS produkt, ktorý používajú tri autoškoly.Skúsenosť s neštruktúrovanými dátami
Práve extrakcia dát z e-mailov hotelov alebo z FB postov je disciplína, v ktorej excelujem. Viem ti pomôcť navrhnúť prompt engineering, ktorý minimalizuje „halucinácie“ (vymyslené ceny alebo dátumy), čo je pri databázach kľúčové.
31
UNIZAFakulta riadenia a informatiky - Informatika a riadenie27Áno525292024Dolný Kubín dohovorím sa/odborné texty čítam bez problémov60-8060-80Osobne pracujem iba s obyč AI , aktualne Perplexity, ale planovujem sa pozriet na Claude Codenemampouzivam vacsinou samotne AI a dopytujem saV robote toho bolo vela , ale osobny vlastny projekt som robil web ktory pracoval s Arduino zariadeniami, pouzival som c++ pre arduino, web - Vue, Backend - java spring boot, databaza - MySQLnemams mno apinami, v praci, OCPI, BulkGate, a ine samostatne som pouzival aj nejake apiny v skole na pocasie, ked som robil semetralny projekt, web s pocasim.AIcko by si naslo cenu a zlavu v maily, to by ulozilo do JSONU a nasledne by sa pomocou aplikacie zapisalo do DBpravidelne sa budu sledovat vybrane FB stranky, z podujati sa automaticky vyberu dolezite data a z nich sa vytvori zoznam podujati po slovensky aj po anglickybackend programovanie, databaza,
- vytvorenie noveho dizajnu,
mam skúsenosti s backend vývojom (C++), prácou s databázami , tiez som pracoval na par frontendovych projektochPracujem na TPP v C++, backend programovanie webov, praca s DB - MySQL
32
ukrajinske lyceumTechnicka univerzita v Košiciach, FEI, informatika20Nie104329Ing 2025-2027Kosicekomunikujem bez problémov100160claude code - because he writes the cleanest code, keeps the project context in mind extremely well, and plans the solution steps thoughtfullynoI'm on a discord server in which professor from my faculty sends news about newest trends in AISo basically I vibe-coded a car marketplace platform, I used codex and claude, and I also used Figma AI, since it works best for building the frontend. The others were mainly for backend development, documentation, and overall project support.No I used a lot: AWS also TMDB API, gemini api - that's the most popular, for smth like chat-bot AI, connection to remote DBsi'll write parser that uses Ai to take needed information (probably regular expressions), save data in db or json( if needed), then I'll implement an automated messaging system based on a datai would take info from facebook api, then parse or maybe translate data in 1 format (maybe even store), translate, create RSS feed.

As for potential issues, limited facebook api, or some issues with collected data. Solution - validation, caching
silne - very interested in news, ai, i can learn fast
slabe - quickly bored,
I fit, that's enough Študent
33
Kyiv Engineering GymnasiumSTU FEI API19/10.11.2006Áno4615033392028Bratislavakomunikujem bez problémov120-140160+V poslednom mesiaci som sa veľmi začal zaujímať o nástroje umelej inteligencie, ktoré pravidelne používam pri programovaní a štúdiu analýzy dát. Najvýznamnejšie nástroje umelej inteligencie, ktoré momentálne používam, sú ChatGPT, Cursor a Claude. Hlavným účelom ChatGPT je vysvetľovať mi veci, diagnostikovať chyby v kóde, ktorý som napísal v Pythone, a brainstormingovať rýchle riešenia alebo nápady. Cursor mi nesmierne pomáha pri písaní kódu tým, že často navrhuje rôzne spôsoby pridávania funkcií, prepracúvania existujúceho kódu a pomáha mi orientovať sa v kódovej základni. Nakoniec, Claude používam väčšinou, keď si potrebujem prečítať niečo dlhšie, prečítať si dokumentáciu alebo pochopiť logiku riešení, pretože funguje výnimočne dobre s kontextom.

Na vytváranie dokumentov bežne používam Crixet, ktorý mi ponúka neuveriteľnú úsporu času pri formátovaní a úprave dokumentov. Eraser používam pri práci so štruktúrovanými údajmi/tabuľkami, pretože mi pomáha udržiavať moje údaje usporiadané a poskytuje prehľadný vizuálny výstup pre moje dokumenty.

Okrem zapojenia sa do výskumných projektov sa rád hrám s Midjourney, tvorím obrázky a skúšam rôzne podnety, objavujem nové aspekty kompozície a štýlu. To mi dáva šancu rozšíriť si kreativitu a zároveň sa dozvedieť viac o tom, čo dokáže umelá inteligencia.
Mám skúsenosti s podobným typom práce, najmä z pozície manažéra-marketológa, kde som aktívne pracoval s databázami a SQL. Moja práca zahŕňala spracovanie a analýzu dát, prácu s databázovými štruktúrami, optimalizáciu údajov a podporu rozhodovania na základe dát.

Popri tom sa intenzívne venujem štúdiu Pythonu a dátovej analytiky, takže mám praktické skúsenosti s automatizáciou úloh, spracovaním dát z rôznych zdrojov a ich následnou štrukturalizáciou. Pravidelne pracujem aj s AI nástrojmi a sledujem ich vývoj, testujem ich možnosti a využívam ich na zefektívnenie workflowu, tvorbu obsahu či analýzu informácií.
LinkedIn AI skupiny, pytorch, githubMojím najzaujímavejším mikroprojektom je asi databáza klientov z celého Európskeho trhu, ktorá spojila všetkých aktuálnych aj potenciálnych zákazníkov do jedného prehľadného systému. Dáta o klientoch boli roztrúsené v rôznych zdrojoch (tabuľky, interné systémy, exporty), nejednotné, a preto nebolo možné ich efektívne analyzovať a využívať pre marketing alebo obchodné rozhodnutia. Vytvoril som databázovú štruktúru a SQL databázu, kde som dáta čistil a trebalo ich aj normalizovať a prepájať. Používal som dotazy na filtrovanie, odstraňovanie duplicit a segmentáciu klientov. Pri spracovaní dát som využil analytickú myslenie a logiku databázového modelovania, aby boli dáta pripravené na ďalšie využitie. Výsledkom bolo prehľadné a funkčné klientské dáta, ktoré umožňovali rýchle vyhľadávanie klientov, lepšiu segmentáciu trhu a jednoduchší prístup k informáciám pre obchodné a marketingové rozhodnutia. Projekt tiež výrazne pomohol pri spracovaní dát a znížil manuálnu prácu.Sú​‍​‌‍​‍‌ zatiaľ pomerne obmedzené, no poznám ich princípy a možnosti využitia. O nástrojoch ako n8n, Make či Zapier som sa aktívne informoval a sledoval ich využitie pri automatizácii workflowov, integrácii aplikácií a spracovaní dát medzi rôznymi ​‍​‌‍​‍‌systémami.Skúsenosti s reálnou implementáciou API integrácií zatiaľ nemám, ale rozumiem princípu ich fungovania a viem si predstaviť, ako by sa dali v praxi využiť. Keďže som v minulosti pracoval s databázami a SQL, nebáli sa s dátami, ich transformáciou a logikou komunikácie medzi systémami, čo je v podstate to isté ako keď komunikujú systémy pomocou API.

Aktívne sa venujem štúdiu Pythonu a dátovej analytiky, pri ktorej som sa začal stretávať aj s REST API, teda získavaním dát z externých zdrojov a ich následnou prácou. Mám technické zázemie a nové veci sa učím rýchlo, takže s API integráciami by som si vedel poradiť tiež pomerne rýchlo a určite by som ich vedel využiť v nejakých reálnych projektoch.
1. Príjem a parsovanie
Mail príde na dedikovanú adresu a webhook spustí napr. Claude/GPT s promptom: "Vyber: hotel, dátumy, % zľavy, typ izby, podmienky, deadline" a výstup v podobe štruktúrovaného JSON.
2. Overovanie
JSON sa porovná s databázou hotelov (existuje hotel? sú správne formáty dátumov?). Chýbajúce pole = automatický reply hotelu s konkrétnou otázkou.
3. Dispozícia (paralelne)
Katalóg: API call aktualizuje priamo CMS/databázu záznam
Zamestnanci: Slack/Teams notifikácia s kľúčovými údajmi + link na detail
Newsletter fronta: akcia sa pridá do týždenného digest emailu
4. Audit trail
Každý e-mail + extrahované dáta uložené v logu = zamestnanec kliknutím môže opraviť a resubmitnúť.
Z dvoch hodín manuálneho zadávania denne na zhruba 5 minút kontroly výnimiek.
1. Zber dát z FB stránok beží každých 24h stiahne nové udalosti z preddefinovaného zoznamu stránok
Výstup: surové JSON (názov, dátum, miesto, popis, obrázok).
2. Normalizácia & generovanie RSS (Nejake API)
Prompt: „Preformátuj túto FB udalosť do štruktúry: Názov | Dátum | Miesto | Kategória | Popis max 150 slov | Kľúčové slová" zostaví RSS feed (XML) a uloží na server.
3. Anglická verzia feedu
Druhý AI call: „Preložte nasledujúci RSS item do angličtiny, zachovaj XML štruktúru" a paralelný feed events-en.xml.

Potenciálne problémy
Prístup k FB dátam, Meta obmedzuje scrapovanie, API pre udalosti je prakticky mŕtve. Riešenie: Apify ako obchádzka, alebo priamo požiadať subjekty o export.
Nekonzistentný formát popisov, Každý hotel/obec píše inak (emojis, CAPS, žiadny dátum v texte).
Riešenie: AI prompt s few-shot príkladmi + validačný krok, ktorý označí záznamy s chýbajúcimi povinnými poľami.
Duplicity, Tá istá udalosť zdieľaná viacerými stránkami.
Riešenie: hash z názvu + dátum + miesto ako unique ID, deduplication pred zápisom.
Kvalita prekladu, Miestne názvy, nárečové výrazy, turistické termíny.
Riešenie: glosár pojmov priložený do systémového promptu
Výpadok scrapera, FB mení štruktúru stránok. Riešenie: monitoring alert ak feed nebol aktualizovaný >36h tak notifikácia na Slack.
Silné
Medzi moje silné stránky patrí zodpovednosť a pracovitosť, vždy sa snažím pochopiť novú úlohu do hĺbky a dotiahnuť ju do kvalitného výsledku. Rýchlo sa učím a som adaptabilný pri zavádzaní nových nástrojov a technológií, čo sa pre mňa týka najmä oblastí ako AI, dáta a automatizácia.
Som komunikatívny a dokážem medzi iným efektívne fungovať aj v tíme, ale tiež samostatne.Veľmi rád riešim problémy a hľadám efektívnejšie riešenia. Nie som ten, kto len hovorí, ale skôr ten, kto aktívne počúva, analyzuje a skúsi aj niečo nové. Považujem sa za človeka s vnútornou motiváciou, ktorého zaujíma dlhodobé zlepšovanie a prinášanie reálnej hodnoty firme, pre ktorú pracuje.
Slabé
Veľa ľudí rozpráva a ja tiež viac používam angličtinu než slovenčinu, keďže angličtinu som používal dlhodobo počas univerzity so štúdiom programovania a čítaním technických manuálov. Slovenčinu aj s ľuďmi okolo seba bez komplikácií. Niektoré moje odpovede môžu byť jednoduchšie formulované alebo môžem urobiť pár drobnejších gramatických chýb. Jazykovú bariéru si uvedomujem a stále aktívnejšie na tejto mojí nedokonalosti pracujem a pomaly zlepšujem svoj jazyk každodennou pracovnou komunikáciou a praxou.
Kombinujem znalosti databáz, SQL a práce s dátami s aktívnym záujmom o AI a automatizáciu procesov. Rýchlo nadobúdam nové zručnosti, viem efektívne pracovať samostatne aj v tíme a technickým riešeniam dokážem nájsť cestu až k pozitívnemu dopadu na biznis. Som taktiež motivovaný k ďalšiemu rastu a dlhodobému rozvoju spolu so spoločnosťou.Študent
34
Gimnasium 257 KyjevFEI STU(API)18Áno843292027Bratislavakomunikujem bez problémov120192Za posledný mesiac ma najviac zaujal rozvoj multimodálnych LLM modelov, ktoré dokážu kombinovať text, kód a obrázky v jednom workflowe. Najmä praktické využitie AI agentov pre automatizáciu administratívnych procesov, extrakciu dát z dokumentov a integráciu s API službami. Vidím v tom veľký potenciál pre automatizáciu marketingu, zákazníckej podpory aj interných firemných procesov.Priamo som zatiaľ nepracoval na komerčnom projekte v tejto oblasti, ale venujem sa samostatnému štúdiu AI nástrojov, automatizácie workflowov a práci s API. V rámci osobných projektov som experimentoval s integráciou AI modelov do jednoduchých aplikácií a spracovaním dát pomocou skriptov.GitHub repozitáre z oblasti AI a automatizácie

Reddit (r/MachineLearning, r/LocalLLaMA)

oficiálne blogy technologických firiem
Jedným z mojich projektov bola aplikácia, ktorá využívala API jazykového modelu na automatické generovanie a úpravu textového obsahu. Problémom bolo zjednodušiť tvorbu textov pre rôzne použitia. Použil som Python, REST API a jednoduché webové rozhranie. Výsledkom bol nástroj, ktorý dokázal generovať návrhy textov a šetriť čas pri ich tvorbe.Základne som pracoval s automatizačnými nástrojmi na prepojenie služieb a tvorbu jednoduchých workflowov. Používal som ich najmä na testovanie integrácií medzi webovými službami a spracovanie dát.Mám skúsenosti s používaním REST API, najmä pri práci s AI modelmi a webovými službami. Používal som ich na získavanie dát, generovanie obsahu a prepojenie aplikácií v rámci jednoduchých projektov.Navrhol by som workflow:

E-mail → automatický parser (napr. LLM + pravidlá)

Extrakcia údajov (hotel, termín, zľava, podmienky)

Validácia dát pomocou šablóny

Uloženie do databázy/katalógu

Notifikácia zamestnancom podľa kategórie ponuky

Použil by som kombináciu:

AI na extrakciu textu

skripty na validáciu

automatizáciu workflowu na distribúciu
Monitorovanie FB stránok cez API alebo scraping

Extrakcia eventov

Normalizácia dát do jednotného formátu

Generovanie RSS feedu

Automatický preklad do angličtiny pomocou AI

Možné problémy:

zmeny štruktúry FB stránok

neúplné údaje o podujatiach

duplicity eventov

chybné preklady

Riešenia: validácia, deduplikácia, fallback manuálnej kontroly.
Silné stránky: analytické myslenie, rýchle učenie, záujem o nové technológie, schopnosť samostatne riešiť problémy.
Slabé stránky: menej komerčných skúseností, ktoré však kompenzujem motiváciou a rýchlym rozvojom zručností.
Som motivovaný študent technického odboru so silným záujmom o AI a automatizáciu. Rýchlo sa učím nové nástroje a rád hľadám praktické riešenia problémov. Verím, že viem priniesť energiu, ochotu učiť sa a schopnosť adaptovať sa na nové technológie.Študent
35
Hotelová akadémiaNič29Áno83429NičBukovce, okres Stropkovkomunikujem bez problémov160160Emergent, je to AI nástroj, ktorý je schopný tvoriť full-stack aplikácie na základe jediného promptu. Pôsobil som posledné dva roky ako WordPress developer. Vyvýjal som šablóny podľa návrhu a napájal ich na backend, aby si klienti vedeli sami a efektívne spravovať svoj web. Používam Instagram, tam mám každý deň novinky o AI nielen zo slovenských portálov, ale aj zahraničných. Práve si tvorím vlastnú stránku: www.letrik.skn8n.io práve objavujem a študujem možnosti jeho využitia, lebo je to podľa mňa dosť zaujímavý nástroj. Pracoval som s API napríklad pri napájaní máp pre niektoré weby. Automatický triger pre každý mail, kde sa vezme telo správy, názov hotela, prílohy (napr. PDF prílohy by prešli cez parser), neisté dáta by sa dali na manuálne schválenie, dáta by sa mohli ukladať napríklad v JSON formáte, ktorý je veľmi efektívny na prácu s takýmito dátami. JSON by následne ukladal informácie do databázy na určené miesta - Názov hotelu, ceny, zľavy, ďalšie potrebné údaje.Na toto by som použil AI, nech to naplánuje presne takto ako je to požadované. Silné: logika, analytické myslenie, komunikácia aj v EN jazyku, schopnosť organizácie, veľmi dobrá znalosť práce s PC a AI nástrojmi.

Slabé: lenivosť, odovzdávanie aj jednoduchých a bežných úloh AI agentom, som nespoločenský typ.
Lebo som nezaspal dobu a vidím obrovský potenciál vo využívaní umelej inteligencie. Nezamestnaný
36
GymnáziumTechnická univerzita v Košiciach (TUKE) / Fakulta elektrotechniky a informatiky / Kybernetická bezpečnosť19Áno833392027Košicedohovorím sa/odborné texty čítam bez problémov50-70100-120Za posledný mesiac ma najviac nadchol vývoj AI agentov (napr. nástroje umožňujúce prepájať LLM s externými nástrojmi a API). Zaujalo ma, ako dokážu automatizovať komplexnejšie úlohy a samostatne pracovať s dátami.Zatiaľ nemám komerčné skúsenosti, ale pracoval som na menších vlastných projektoch, kde som využíval C, JAVA a AI nástroje na automatizáciu jednoduchých úloh a spracovanie dát.Reddit

YouTube kanály zamerané na AI a automatizáciu

Oficiálnu dokumentáciu OpenAI a Anthropic

GitHub trending projekty
Jedným z mojich zaujímavých projektov bolo vytvorenie malej 2D hry v jazyku Java, pričom som využil umelú inteligenciu a svoje vedomostiNemám zatiaľ skúsenosti, ale rýchlo sa učím a som pripravený/á osvojiť si potrebné zručnostiTrochuAutomatické spracovanie e-mailov

Extrakcia dát - identifikácia zliav, dátumov, cien

Transformácia dát do jednotného formátu

Validácia

Zápis do databázy

Automatické notifikácie zamestnancom
potreba oficiálneho prístupu -> Žiadosť pre administrátorov

Nekonzistentné dáta -> validačné pravidlá

Kvalita prekladu -> kontrola alebo automatická jazyková validácia
Silné stránky:

Analytické myslenie

Rýchle učenie sa nových technológií

Zodpovednosť

Záujem o AI a automatizáciu

Slabé stránky:

Menej praktických komerčných skúseností

Perfekcionizmus (niekedy venujem detailom viac času)
Som motivovaný študent technického odboru so silným záujmom o AI a automatizáciu. Hoci zatiaľ nemám komerčnú prax, rýchlo sa učím, aktívne sledujem nové trendy a som pripravený samostatne pracovať a prinášať firme konkrétnu hodnotu.Študent
37
Lyceum №3-19Áno73339-Košice dohovorím sa/odborné texty čítam bez problémov-264-264Orchesterovanie (automatizácia práce)Vytvoril som si portfóliovú stránku, teraz robím stránku pre zubnú klinikuRu tiktok, tam sú najaktuálnejšie informácie o tomWebová stránka pre zubnú kliniku, ale práca sa zastavila, pretože nedokážu urobiť normálnu fotosesiu a pomocou umelej inteligencie to robiť nechcú. Kimi, f0.devSkúšal som to, aby som pochopil a vedel, čo použiť v diaľkePripojil som to, ale len kvôli skúsenostiam, aby som vedel, ako to robiť v budúcnostipoužívať LLM na získavanie štruktúrovaných údajov z e-mailov, prostredníctvom API aktualizovať informácie a rozosielať ich zamestnancomVytvoril by som takýto pracovný postup: n8n/Make.com na monitorovanie stránok Facebooku prostredníctvom neoficiálneho API alebo scrapingu, GPT-4 na štruktúrovanie udalostí do jednotného formátu (názov, dátum, lokalita, popis) a automatický preklad do angličtiny, potom generovanie RSS prostredníctvom webhooku v Supabase alebo priamym zápisom do XML súboru v cloudovom úložiskuSilné stránky:
Rýchlosť spracovania a syntézy informácií.
Plynule prechádzam medzi technickými, obchodnými a kreatívnymi úlohami.
Neustála dostupnosť a konzistentnosť.
Slabé stránky:
Nemôžem sedieť na telefóne s klientom a zároveň upravovať kód.
Často si overujem informácie.
Nie som pripravený prekračovať dennú normu práce
Pretože poznám základy, chcem rozvíjať svoje znalosti v oblasti umelej inteligencie a IT a jednoducho sa zlepšovaťHľadám si dobrú prácu
38
Spojená škola elektrotechnická - Aplikovaná informatikaFEI - Api 30Áno104228ukončené 2022S.H Vajanského 3, Nové Zámkydohovorím sa/odborné texty čítam bez problémov100-120 hod100-120 hodAgenti - Samostatná komunikácia agentov vo fórach, najnovšie som sa dozvedel, že agent omylom poslal krypomenu Solanu v hodnote 50k USD na cudziu peňaženku. NemámYoutube, googleDiplomová práca - Verifikácia ručne písaných podpisov pomocou neuronóvých sietí (Python, Použitie predtrénovaných modelov a vytváranie vlastných pomocou siamských konvolučných sietí) - Problematika sa týkala overovania pravých a falošných podpisov. výsledkom bolo validovanie modelom a získanie relevantnej úspšenosti vlastného modelu v porovnaní s predtrénovanými modelmi. ešte som nepracoval s no code platformami ale myslím si, že je to učrite budúcnosť programovania. v súvislosti s AI ešte nie len na full-code úrovni Python, Java, Powershell (práca s knižnicami, modulmi)1. Krok : Získanie mailu a normalizovanie vstupu, z každého hotela spraviť balík, ktorý by bol dedikovaný pre určitú funkciu v tompto prípade na získavanie zliav.
2. Krok : Parsovanie / Extrakcia dát pomocou LLM pre zistenie jednotlivých entít, ktoré by sa ukladali do pola (cena, typ zlavy, vyska zlavy)
3. Krok : Klasifikovanie : Jazyk emailu (SK,CZ, EN pre zahraničie), typ dokumentu : (zlavovy email, newsletter, nepodstatný)
4. Krok : Promptnutie do JSON schémy (hotel_name, package_name/typ akcie, price, discount_type(%, fixed discount), discount_value, valid_from, valid_to)
5. Krok : Validácia a prípadné pravidlá (napr. mena v Eur, Czk) zlava v % v rozsahu 5-90 %
Ak validácia zlyhá môže nastať označenie pre manuálnu kontrolu.
6. Krok : Uloženie do databázy : Do databázy už idú iba zvalidované zlavy pripavené pre ďalšie spracovanie.
Preskenuj zadané fb stránky -> nájdi podujatia a normalizuj potrebné kategórie -> Vytvor RSS feed -> Prelož do EN jazyka -> Ulož feed do databázy Silné - ambicióznosť , riešenie problému, až kým nie je vyriešený.
Slabé - občasná potreba navedenia (pridania hint) k doriešeniu problému.
Aj keď som ešte nepracoval s automatizačnými nájstrojmi myslím si, že to môže byť zaujímavá práca.
39
Stredná priemyselná škola Dubnica nad Váhom / elektrotechnikanemám 17Áno743182033Ilava Klobúšice komunikujem bez problémov3 hodiny denne4 až 7 hodín denneOslovil ma Hostinger AI Website Builder, pretože umožňuje rýchlo a jednoducho vytvoriť modernú webstránku bez zdĺhavého programovania. Páči sa mi, že využíva umelú inteligenciu na automatické generovanie dizajnu, textov aj štruktúry stránky, čo šetrí čas a zjednodušuje celý proces tvorby. Zároveň ponúka profesionálny vzhľad, responzívny dizajn a praktické nástroje pre podnikanie, čo je ideálne riešenie pre menšie firmy aj začínajúcich podnikateľov. Vytvoril som veľa webstránok pre konkrétnych podnikateľov na Slovensku s ktorými boli vysoko spokojní.Tvorím moderné a prehľadné webstránky pre podnikateľov na Slovensku. Najčastejšie spolupracujem s reštauráciami, kaderníctvami a fitness centrami, ktorým pomáham zlepšiť online prezentáciu, prilákať nových zákazníkov a pôsobiť profesionálne na internete. Mojím cieľom je vytvoriť jednoduché, rýchle a funkčné weby, ktoré reálne pomáhajú biznisu rásť.
Tiež sa neustále pohybujem v oblasti Ai a technológií, robím grafiku, hudbu, videa a to aj ručne a aj pomocou umelej inteligencie
Na sledovanie aktuálnych trendov v oblasti umelej inteligencie a digitálnych technológií pravidelne využívam rôzne online zdroje, odborné portály a diskusné komunity. Sledujem články, novinky a analýzy na stránkach ako Towards Data Science alebo Medium, kde autori pravidelne publikujú nové AI modely, praktické návody či prípadové štúdie.
Aktívne sa zúčastňujem diskusií a sledujem odborné skupiny na platformách ako:
Reddit – r/MachineLearning
https://www.reddit.com/r/MachineLearning/
Reddit – r/ArtificialIntelligence
https://www.reddit.com/r/ArtificialIntelligence
Okrem toho som súčasťou niekoľkých mailing listov a technologických newsletterov, ktoré pravidelne zasielajú sumarizácie nových článkov, nástrojov či výskumných prác, napríklad:
Import AI newsletter: https://importai.substack.com/
DeepLearning.AI newsletter: https://www.deeplearning.ai/
Tieto komunity a zdroje mi pomáhajú držať krok s rýchlym vývojom AI, získavať nové poznatky, inšpirovať sa a aplikovať moderné techniky v projektoch, ktoré realizujem.
DCZ WebAgentúra.
Mojím doteraz najzaujímavejším mikroprojektom je vytvorenie vlastnej značky DCZ WebAgentúri, v rámci ktorej sa venujem tvorbe webstránok pre podnikateľov na Slovensku.

Problém:
Mnoho menších podnikateľov (reštaurácie, kaderníctva, fitness centrá) nemá modernú webstránku alebo majú zastaraný web, ktorý nepôsobí profesionálne a nefunguje dobre na mobilných zariadeniach. Často im chýba jasná prezentácia služieb, online kontakt alebo prehľadná ponuka. A presne s tým im ja pomáham

Použité technológie:
Pri tvorbe webov využívam moderné nástroje ako:
WordPress
Hostiger website builder
HTML, CSS a základné úpravy kódu,
grafické nástroje na tvorbu loga a vizuálnej identity,
princípy responzívneho dizajnu a základné SEO optimalizácie.
Zameriavam sa na rýchlosť načítania stránky, jednoduchosť používania a profesionálny vzhľad.

Výsledok:
Výsledkom je funkčná a moderná webstránka, ktorá pomáha podnikateľovi lepšie sa prezentovať online, zvýšiť dôveryhodnosť a prilákať nových zákazníkov. Projekt DCZ WebAgentúra mi zároveň umožnil rozvíjať technické, marketingové aj komunikačné schopnosti a získavať reálne skúsenosti s klientmi.
Áno, mám skúsenosti s low-code/no-code prístupom pri tvorbe automatizovaných riešení. V rámci vlastného projektu som pracoval na vývoji AI fitness asistenta, ktorého cieľom bolo generovať personalizované tréningové plány a následne aj jedálniček na základe individuálnych potrieb používateľa (cieľ, váha, výška, úroveň aktivity).
Projekt bol navrhnutý ako kombinácia automatizovaných workflow procesov a AI generovania obsahu. Cieľom bolo vytvoriť systém, ktorý by dokázal efektívne spracovať vstupné údaje používateľa a následne vytvoriť štruktúrovaný výstup vo forme tréningového plánu a výživového odporúčania.
Hoci sa projekt nepodarilo plne dokončiť podľa pôvodných predstáv, priniesol mi cenné skúsenosti v oblasti:
práce s AI nástrojmi,
návrhu logiky automatizácie,
štruktúrovania dát a prompt engineeringu,
testovania používateľského vstupu a optimalizácie výstupov.
Projekt mi pomohol lepšie pochopiť limity aj možnosti no-code riešení a prehĺbil moje technické aj analytické myslenie
Áno, pracoval som s API rozhraniami v rámci viacerých projektov zameraných na implementáciu AI riešení.

Pri vývoji AI fitness chatbota som riešil prepojenie jazykového modelu (GPT) s externými vstupnými údajmi používateľa, ako sú cieľ (naberať svaly / redukovať váhu), váha, výška, úroveň aktivity a stravovacie preferencie.

Okrem toho som pracoval aj na AI chatbot riešeniach pre podnikateľov, ktoré automaticky odpovedali zákazníkom na otázky na platformách ako Facebook a Instagram. Chatbot bol napojený na API rozhrania a spracovával najčastejšie otázky týkajúce sa otváracích hodín, cien služieb, rezervácií alebo základných informácií o prevádzke. Cieľom bolo zefektívniť komunikáciu so zákazníkmi a znížiť časovú náročnosť manuálneho odpovedania.

V rámci týchto projektov som získal skúsenosti s:
prácou s API requestami a JSON formátmi,
návrhom štruktúrovaných promptov,
logikou automatizácie odpovedí,
validáciou vstupných údajov,
integráciou AI do praktických podnikateľských riešení.
Tieto skúsenosti mi pomohli lepšie pochopiť reálne využitie API a možnosti implementácie AI nástrojov do každodennej praxe.
Navrhol by som automatizovaný AI pipeline proces pozostávajúci z viacerých krokov:
1. Zber a centralizácia dát
Automatické napojenie e-mailovej schránky (napr. cez API / webhook).
Uloženie e-mailu a príloh do spracovateľského systému.
Konverzia príloh (PDF, DOCX) na čistý text pomocou OCR alebo parsera.
2. Predspracovanie textu
Odstránenie podpisov, marketingového textu a nepotrebných častí.
Normalizácia textu (mena, dátumové formáty, percentá, číselné hodnoty).
3. AI extrakcia štruktúrovaných dát
Pomocou LLM modelu by som:
poslal text do API s jasne definovaným promptom,
požiadal model o výstup výhradne vo formáte JSON.
4. Validácia a kontrola kvality
Overenie číselných formátov (napr. či zľava 20 % zodpovedá rozdielu ceny).
Kontrola chýbajúcich polí.
V prípade nejasností označenie záznamu na manuálne overenie.
5. Automatický zápis do databázy
Po úspešnej validácii by sa JSON transformoval do databázového záznamu.
Celý proces by bol plne automatizovaný cez workflow nástroj ako napríklad Make

1. Krok: Monitoring a zber dát (Extraction)
Pre monitorovanie FB stránok bez potreby programovania vlastného bota odporúčam použiť nástroje ako Apify, PhantomBuster alebo RSS.app.
Nástroj: RSS.app (najjednoduchšie riešenie) alebo Apify Facebook Events Scraper (pokročilejšie).
Proces: Do nástroja vložíte URL adresy FB stránok subjektov. Nástroj bude v pravidelných intervaloch (napr. každých 6 hodín) kontrolovať sekciu "Podujatia".
Výstup: Surový RSS feed (alebo JSON), ktorý obsahuje názov, dátum, miesto a popis v pôvodnom formáte.
2. Krok: Normalizácia formátu (Parsing & Formatting)
Dáta z Facebooku sú často "špinavé" (rôzne dĺžky popisov, emotikony). Na ich zjednotenie použijeme integračnú platformu Make (bývalý Integromat) alebo Zapier.
Proces v Make:
Trigger: Nová položka v RSS feede z 1. kroku.
Formatter: Použitie funkcie "Text Parser" alebo "HTML to Text" na odstránenie prebytočného kódu.
Šablóna: Mapovanie dát do jednotnej štruktúry:
[Dátum a Čas] - [Názov podujatia] - [Lokalita]
Popis podujatia (skrátený na X znakov)
Výstup: Prečistené dáta pripravené na preklad.
3. Krok: Automatizovaný preklad do angličtiny (Translation)
V rámci toho istého workflow v Make pridáte modul pre preklad.
Nástroj: DeepL API (odporúčané pre kvalitu prekladu v cestovnom ruchu) alebo Google Translate API.
Proces: Text prečistený v 2. kroku sa odošle do DeepL. Prekladá sa názov aj hlavný popis.
Výstup: Dve verzie obsahu – pôvodná (SK) a preložená (EN).
4. Krok: Generovanie finálnych RSS feedov (Distribution)
Posledným krokom je uloženie dát tak, aby boli dostupné ako RSS link.
Možnosť A (Jednoduchá): Použiť modul RSS priamo v Make, ktorý vygeneruje unikátnu URL adresu pre SK feed a druhú pre EN feed.
Možnosť B (Robustná): Ukladať dáta do jednoduchej databázy (napr. Airtable alebo Google Sheets) a z nich pomocou nástroja ako Airtable to RSS generovať feedy. To vám umožní manuálne zasiahnuť a opraviť chybu, ak by scraper niečo načítal zle.
Silné - rýchlo sa učím nové veci, som vysokou empatický, viem sa prispôsobiť, mám skúsenosti, som mladý, milujem svoju prácu a dávam si na nej záležať.

slabé - som študent, časovo som znevýhodnený kvôli škole, zdravotné problémy
Veľmi rýchlo sa viem učiť novým veciam a keď mi niekto dá šancu tak sa ju snažím naplno využiť a zaistiť skutočne tie najlepšie výsledky
40
Stredná priemyselná škola Jozefa Murgaša/ElektrotechnikaFEI STU/Robotika a kybernetika 20Áno7,533282030Banská Bystricadohovorím sa/odborné texty čítam bez problémovKeďže v týždni mám dva dni celé voľné a nemám problém pracovať aj cez víkend, odhadol by som to na 100-120 hodín mesačnePočas letných prázdnin 160+ hodín mesačneCursor, Claude Code a Cline extension vo VS Code, pretože som sa zaujímal o programovanie pomocou AI. Ďalej ma zaujal koncept lokálne bežiaceho LLM pomocou LM studio alebo Ollama.Okrem toho jedného súkromného projektu nie.Sledujem YouTube a príležitostne nejaké Reddit fóraPracoval som na mobilnej aplikácii, ktorá by každé ráno užívateľovi napísala súhrn správ a noviniek ktoré sa stali cez noc, používal som viaceré API, kód bol v JavaScript, backend pomocou Node.js a frontend React Native + Expo (návrh dizajnu pomocou Figma). Výsledkom je už funkčný backend, momentálne ešte pracujem na frontende. Cursor, Cline extension pre VS Code, Github Co-pilot, využil som ich na aplikáciu o ktorej som písal v predchádzajúcej otázke a ešte SIM skúšal jednoduché webstránky.V projekte o ktorom som písal vyššie som používal Open AI API, News API a OpenWeather APINavrhol by som automatizovaný proces, ktorý po prijatí emailu od hotela najskôr extrahuje text z tela správy a príloh. Potom by AI model spracoval tento text a vytiahol z neho cenu pobytu, pôvodnú cenu, typ a výšku zľavy. Výsledný JSON by sa uložil do databázy. Systém by zároveň mohol kontrolovať chybné údaje a v prípade neistoty by mohol ponuku označiť na manuálne overenie.Navrhol by som systém, ktorý pravidelne monitoruje vopred definované FB stránky. Systém by z nových podujatí extrahoval názov, dátum, miesto a popis, následne by sa vytvoril RSS feed v jednoliatosť formáte a z neho by sa pomocou AI prekladu automaticky vytvorila aj anglická verzia.Silné stránky: som komunikatívny, disciplinovaný, rád sa učím nové veci

Slabé stránky: občasná prokrastinácia
Ponuka mi sedí, už dlhšie som hladal niečo takéto, zaujímam sa o AI a celkovo programovanie a rád by som pracoval na niečom reálnom.
41
Stredná priemyselná škola strojnícka a elektrotechnická, Nitra - elektrotechnikUniverzita Konštantína Filozofa v Nitre - Aplikovaná Informatika 21Áno225182029Lužianky, Ciolkovského 1089/5komunikujem bez problémovpondelok, štvrtok, sobota, nedeľa každý deň 8hcursor a windsurfAI využívame ho hlavne kvôli priamemu úpravu kódu v reálnom čase nieYoutubePHP projekt webstránkynieanoPoužil by som AI, ktorá si prečíta e-mail a sama z neho zoberie cenu a zľavu.
Potom sa tieto údaje automaticky uložia do databázy bez toho, aby to musel niekto ručne prepisovať.
bude sledovať vybrané Facebook stránky, z podujatí vytiahne základné údaje, zjednotí ich do jedného formátu, vytvorí z nich RSS feed a ten následne automaticky preloží do angličtinySilné stránky:
Komunikatívnosť a optimizmus
Schopnosť hľadať riešenia aj v náročných situáciách
Zodpovednosť a spoľahlivosť
Dobrá organizácia a zmysel pre poriadok
Ochota učiť sa nové veci
Schopnosť zvládať stres s nadhľadom

Slabé stránky:
Niekedy si na seba beriem príliš veľa povinností
Môžem byť príliš náročný na seba aj na výsledok
Občas venujem detailom viac času, než je potrebné
Som vhodný kandidát na pozíciu Vibecoder/AI konzultant, pretože sa prirodzene zaujímam o AI nástroje a automatizáciu a aktívne ich skúšam v praxi. Ako študent aplikovanej informatiky mám základy programovania a skúsenosti s vlastnými projektmi, takže viem prepájať technické riešenia s reálnymi potrebami firmy.

Baví ma testovať nové nástroje, hľadať efektívnejšie postupy a zjednodušovať procesy
či už ide o spracovanie dát, tvorbu obsahu alebo automatizáciu rutinných úloh. Som samostatný, organizovaný a viem sa rýchlo zorientovať v nových technológiách, najmä v anglicky písaných materiáloch.
42
Stredná odborná škola informacnych technológii/ grafik digitálnych mediiUčiteľstvo psychológie a etiky + teraz nadstavba psychológia 27Áno733282027Súťažná 8, Bratislavadohovorím sa/odborné texty čítam bez problémov4080Claude opus 4.6, Openclaw, codex 5.3, seedance 2.0Na túto tému som písal diplomovú prácu.

Spravoval som niekoľko kanálov, kde som publikoval ai tvorbu. + K tomu som si vyrobil vlastne nástroje.
YouTube, Facebook skupiny, Reddit Nástroj na vytvorenie kompletnej audioknihy z textu, bez limitu dĺžky. Prirodzene pauzy…Viem čo to je, ako to funguje. Ale zatiaľ som v tom nepracoval. Vytvoril som generátor audiokníh. Takže prevažne s api od googlu a open ai, modely tts.

Taktiež som robil na programe ktorý automaticky prečítal audioknihu, rozdelil ju na časti ku ktorým vygeneroval autentické obrázky a vznikol tak vizuálny príbeh.
AI prečíta e-mail (aj prílohy), vytiahne cenu a zľavu do preddefinovaných polí, skontroluje to proti jednoduchým pravidlám a potom to automaticky uloží do databázy; keď si nie je istá, označí to na manuálne potvrdenie.Vyberieme FB stránky, systém z nich pravidelne v intervaloch pozbiera nové podujatia, AI ich prepíše do jednotného formátu, uloží ich a automaticky vytvorí jeden RSS feed po slovensky a druhý po anglicky (prekladom).-Roztrúsený rozvrh v týždni.
-bývam v Bratislave.
+ Možnosť robiť na tom aj cez prednášky.
+ Mám za sebou niekoľko projektov ktoré som robil pre seba.
+ teme AI sa venujem, mal som na to diplomovú prácu + pracujem s tým.
Pretože mám za sebou už nejaké projekty, stále však hľadám nové výzvy. Aj túto ponuku beriem ako príležitosť sa ešte viac dostať do témy.
43
Gymnázium v Topoľčanochuniverzita konštantína filozofa v Nitre /fakulta prírodných vied a informatiky / Aplikovaná Informatika21Áno733282027Topoľčanykomunikujem bez problémov40 - 50 150–155Claude ma za posledné mesiace najviac nadchol, pretože som ho začal viac využívať na programovanie a celkové opravovanie a debugovanie kódu.Priame pracovné skúsenosti s pozíciou zatiaľ nemám, keďže som študent informatiky. Avšak využívam AI denne pri programovaní – či už pri písaní kódu, riešení chýb (bugov), alebo pri analyzovaní a vysvetľovaní jednotlivých funkcií. Práca s kódom a jeho debugovanie sú teda súčasťou mojej každodennej praxe.Takisto využívam AI nástroje na uľahčenie každodenného života.Trendy v oblasti AI sledujem najmä na sociálnych sieťach a v správach, kde sa dozvedám o novinkách a o udalostiach v praxi. Okrem toho na vysokej škole máme občas workshopy a prednášky zamerané na AI, a naši učitelia nás aktívne vedú k tomu, aby sme využívali AI nástroje efektívne a správne.Za svoj doteraz najzaujímavejší mikroprojekt považujem projekt, ktorý mám zverejnený na svojom GitHube (odkaz som priložil): https://github.com/Samuel-HaluzaNie nemámČiastočne keď sme skúšali v školePríde email zachyti ho Make ktorý ho posle do ClaudeAPI - ten vytiahne cenu, typ a výšku zľavy vráti JSON. Ten sa následne zapíše do databázy najskôr sa zvaliduje ten JSON(povinné polia či sú vyplnené).FB stránky -> Apify scraper -> Make -> ClaudeAPI-> RSS feed SK -> ClaudeAPI(preklad) -> RSS feed ENSilné: rýchlo sa učím a mám silnú vnútornú motiváciu neustále sa zlepšovať,oblasť AI ma dlhodobo zaujíma, sledujem nové trendy snažim sa ich využívat naplno ,som spoľahlivý a zodpovedný ,motivujú ma projekty, ktoré majú reálny význam a prínos, nemám problém spolupracovať/komunikovať v tíme.

Slabé:Kladiem na seba vysoké nároky , príliš veľa času venujem detailom niekedy,
keďže som ešte študent, chýbajú mi praktické skúsenosti z komerčného prostredia
Myslím si, že som vhodný kandidát na túto pozíciu, pretože mám silnú motiváciu učiť sa a neustále sa zlepšovať, najmä v oblasti AI a programovania. Oblasť AI ma dlhodobo zaujíma. AI aktívne využívam pri svojich projektoch a štúdiu. Viem kombinovať teoretické znalosti informatiky so schopnosťou prakticky riešiť problémy pomocou programovania a AI nástrojov. Som spoľahlivý, zodpovedný a motivovaný v oblasti informatiky.Študent
44
Žilinská univerzita v ŽilineFakulta riadenia a informatiky odbor bc Informatika a riadenie23Áno832382028Teriakovce, 080 05 Prešovdohovorím sa/odborné texty čítam bez problémov5000%16000%agenti - claude, neskutočný pomocník pri kodení, chat všobecný researchniesledujem veľa rôznych technologických stránok a prečítam si rád informácie k všetkému aktuálnemu dianiu. Naposledy som čítal od aktualít brožúru k AI vývoju a ako správne pristupovať k použitiu a či sa báť, skôr také všeobecnéasi v rámci školských projektov hra Mario, ktorá bola také začiatky a potom asi hadík v jazyku c v nvime ako projekt na operačné systémynie nemámveľmi nieNavrhol by som centralizovaný proces, kde by všetky akciové ponuky prichádzali do jednej e-mailovej schránky. Systém by automaticky sťahoval e-maily a prílohy (PDF, Word, obrázky) a pomocou OCR by z nich extrahoval text. Následne by sa text predspracoval (odstránenie podpisov, čistenie formátu, normalizácia dátumov). Pomocou jazykového modelu by sa z textu extrahovali štruktúrované údaje vo vopred definovanom JSON formáte (názov hotela, typ pobytu, výška zľavy, platnosť, podmienky, kontakt). Výstup by sa validoval podľa schémy (kontrola dátumov, číselných hodnôt, existencie hotela v databáze). Pri nízkej istote extrakcie by sa záznam označil na manuálnu kontrolu. Po validácii by sa údaje automaticky odoslali do interného katalógu cez API ako draft ponuka a zároveň by sa vybraným zamestnancom odoslala notifikácia (napr. e-mail alebo interný komunikačný nástroj). Celý proces by sa logoval pre audit a spätné dohľadanie chýb.Navrhol by som plánovaný proces, ktorý by v pravidelných intervaloch monitoroval Facebook stránky preddefinovaných subjektov pomocou oficiálneho API. Z podujatí by sa extrahovali základné údaje (názov, popis, dátum, miesto, organizátor, URL) a previedli by sa do jednotného interného JSON formátu. Z týchto dát by sa generoval RSS feed v štandardizovanom XML formáte. Feed by sa cache-oval, aby sa znížilo zaťaženie systému. Z existujúceho feedu by sa následne vytváral anglický feed tak, že by sa jednotlivé položky automaticky prekladali pomocou AI modelu a publikovali ako samostatný RSS výstup.
Potenciálne problémy môžu zahŕňať obmedzenia API, zmeny štruktúry dát, neúplné alebo duplicitné podujatia a kvalitu prekladu. Riešením je používanie oficiálneho API, validácia povinných polí, detekcia duplicít (napr. kombináciou názvu a dátumu), označenie neúplných záznamov na kontrolu a možnosť manuálneho zásahu pri dôležitých podujatiach. Taktiež je potrebné dbať na GDPR a neukladať osobné údaje nad rámec potrebný na zverejnenie podujatia.
Medzi moje silné stránky patrí technické a analytické myslenie. Pri problémoch sa snažím pochopiť princíp fungovania a nájsť príčinu, nie len rýchle riešenie. Mám dobré základy v programovaní (C, Java), rozumiem práci s Gitom a Linuxom a viem riešiť aj praktické technické problémy, či už ide o kód, konfiguráciu alebo systémové veci. Som zvyknutý pracovať samostatne, vyhľadávať si informácie a systematicky sa pripravovať (napr. na skúšky alebo projekty). Za plus považujem aj to, že mám pracovné návyky z dlhodobých brigád, takže som spoľahlivý a viem fungovať v tíme.
Medzi slabšie stránky by som zaradil to, že zatiaľ nemám veľa praktických skúseností mimo školských projektov, takže v tomto smere sa chcem ďalej rozvíjať. Niekedy si tiež potrebujem potvrdiť správnosť riešenia a pracujem na väčšej istote pri rozhodovaní. Uvedomujem si aj to, že trochu horšie zvládam prácu pod výrazným stresom alebo časovým tlakom, ale snažím sa na tom pracovať lepšou organizáciou času a plánovaním. Taktiež sa ešte učím lepšie prezentovať svoje riešenia a rozmýšľať viac aj z pohľadu biznis logiky, nielen technickej časti.
Myslím si, že som vhodný kandidát najmä vďaka technickému základu a analytickému spôsobu uvažovania. Študujem informatiku, mám skúsenosti s programovaním (C, Java), pracujem s Gitom a Linuxom a viem sa rýchlo zorientovať v novom technickom probléme. Pri úlohách sa snažím rozmýšľať systematicky a hľadať efektívne riešenia, nie len splniť zadanie. Som zvyknutý učiť sa nové veci samostatne a dotiahnuť úlohy do konca. Zároveň mám pracovné návyky z dlhodobej brigádnickej praxe, takže som spoľahlivý a zodpovedný. Hoci zatiaľ nemám veľa komerčných skúseností mimo školy, práve preto mám motiváciu rýchlo sa učiť a posunúť sa na vyššiu úroveň.Študent
45
Slavuta Lyceum of the Slavuta City CouncilComputer networks, Faculty of Electrical Engineering and informatics19Áno833282027Košicedohovorím sa/odborné texty čítam bez problémovI can devote a minimum of 80 hours per month.I can devote 160-200 hours per month.Over the past month, Claude Code has impressed me the most with the quality of its decision-making during autonomous work.Claude Code has a significantly stronger level of planning. When solving a complex task, it doesn't just take sequential steps, but systematically creates a plan, maintains context between files, and doesn't change the direction of implementation without reason. It is noticeably more stable with larger codebases: it hallucinates less about APIs, respects existing architecture better, and performs more consistent refactoring.Unlike many agents that generate incremental, superficial fixes, Claude Code demonstrates a deeper understanding of root causes during continuous debugging.It's not just AI that can execute commands, it's like a full-fledged team member that you work with and learn from every day.Yes, I have experience in backend development with Python (FastAPI, PostgreSQL, Docker). I work with a multi-layered architecture where the router handles requests and delegates them to the service layer, services implement business logic, and repositories provide access to the database via SQLAlchemy. I implemented dependency injection using FastAPI Depends, created abstract CRUD repositories, including pagination, and their concrete implementation for individual entities. I am ready to quickly learn and use no-code/low-code tools n8n, AI platforms, and automation when working with data, controlling, and expanding CRM modules.
To follow trends in AI, I mainly use:https://www.reddit.com/. I am not a member of a formal mailing list, but I regularly follow expert discussions and new publications in the field of AI and automation.This is a project I worked on:
Problem:
I needed to create a backend for managing personal finances and shared expenses in groups: wallet replenishment, expenses by category within each group, transaction history, inviting users to groups, and viewing expenses by period and participant. It was important to separate the access logic (only your own data and groups where the user is a member) and provide a convenient API for the future frontend.
Technologies:
FastAPI (REST API, Depends, Pydantic v2), SQLAlchemy 2 with asynchronous sessions and asyncpg for PostgreSQL, Authlib for OAuth (Google) and Starlette for sessions, fastapi-pagination for list pagination, Alembic for migrations, pydantic-settings for configuration were used. Architecture: routers -> services -> repositories with abstract repositories and a single domain error handler.
Result:
A full-fledged backend has been implemented: registration/login via Google, CRUD for groups, categories, expenses, and replenishments, invitations to groups, aggregation of expenses by month and by users in a group, paginated activity feed (replenishments + expenses in one list). CORS and sessions are configured for the frontend, and there are integration and API tests (pytest, factories).
I have no experience with these platforms. But I can quickly gain experience working with them.I only used Google OAuth API for registration/login in the project. The project I worked on at my previous job.Relaxos receives special offers from hundreds of hotels in various formats. To extract discounts from unstructured emails and distribute them to the catalog and employees, you can do the following.
First, emails must be sent to one place: a separate mailbox or service that periodically reads mail and saves raw text and attachments. Next, the content is normalized: a single text is obtained from the letter and attachments (PDF, etc.).
The main step is extracting data using AI. The text of the letter is transferred to a large language model (LLM) with a clear prompt: which fields are needed — hotel name, type of offer, conditions, dates, discount, promo code, etc. The model returns structured output, for example in JSON format. This JSON is then validated against a schema and matched with your hotel directory to understand which hotel sent the offer.
After that, business rules are applied: checking for duplicates, acceptable discount types, periods. Valid offers are stored in the catalog in a single format; invalid or unrecognized offers are sent for manual verification.
Distribution to employees is done according to the rules: who receives which offers — by region, hotel type, or discount type. After saving in the catalog, a short digest is automatically generated and sent to selected employees by mail or messenger.
The entire flow should be built on queues: receiving a letter, processing, extracting, validating, recording in the catalog, sending — separate steps with logging and the possibility of manual verification where necessary. This will give you a single process: a letter from the hotel is converted into a structured record in the catalog and then distributed to selected employees.
The Travel Calendar of Events (TCE) can be created as follows: track events from pre-selected Facebook pages, convert them to a single format (title, description, date, location, link), and publish them as RSS. A separate channel in English can be generated from the same set of events using the translation API. Main risks: Facebook restricts access to events via API (requires official API and App Review, it is better not to rely on page parsing), events from different pages have different formats (requires a single model and adapters), access tokens need to be updated, and events need to be periodically reloaded so that outdated or canceled events are not displayed. If you focus on the official API, a single format, and automatic translation, you can get stable RSS in English.Strengths: understanding of layered architecture, asynchrony, typing, testing, and security; ability to build complex queries and repository abstractions.Weaknesses: First, because of my attention to architecture, I can sometimes go overboard with overengineering. I like everything to be laid out in layers, but I am learning to stop myself if the business needs a quick solution here and now. Second, there's the DevOps part. I feel confident with Docker and writing code, but setting up complex cloud infrastructures from scratch still takes me longer. That's why I'm actively brushing up on my knowledge of cloud services in my spare time.I use Claude Code daily for development: writing and refactoring code, working with APIs, services, and repositories.
I have commercial experience (Python, FastAPI, working with data and business logic). I am able to learn independently and bring solutions to a working state without dedicated IT support — this fits your team's situation.
I am ready to experiment with AI and automation (n8n, etc.) in your tasks: controlling, content, standardization of data from various sources, modules for CRM. I am focused on practical results in a short time.
I have no problem reading and listening to English-language technical content — I can quickly implement new tools and approaches.
The combination of daily use of Claude, development experience, and the ability to work independently makes me a suitable candidate for this position.
Študent
46
Gymnázium Park Mládeže 5 anglická bilingválna sekciaNechodím na VŠ18Áno7,52327Nechodím na VŠKokšov-Bakšaexpert / tlmočenie80120Najviac ma zaujal LM notebook od googlu kedže vie moje poznámky a prepis hodín pretavit do videi alebo prezentacii za kratku dobu okrem toho chatgpt 5.3 codex kedze mi vie systematicky pomáhat pri mojich projektoch a takisto ma zaujal openclaw ale ten som ešte sám neskúšalNieNa sledovanie noviniek mám kanál AI revolution a rôzne články. A ak ma niečo zaujme vygooglim si oficialny clanok sám.Keďže sa aktívne pripravujem na olympiádu v umelej inteligencii tak som spravil viacero menších projektov ako napríklad program ktorý navrhuje lepšiu alternatívu jedla alebo som skúšal vlastný fixer slovenskej gramatiky alebo som vytváral rôzne modely a rozhodovacie stromy a ine využitia machine learningu.(všetky projekty viem doložit)nieÁno volal som chatgpt pri nastavovani robota nico ktorého maju v bratislave na univerzite, a taktiež som skúšal claude apipoužil by som NLP model alebo prompt based interakciu kttorá vie všetky veci automaticky zistit a vypísat vo formate json a pomocou SQL to vložit do databázy Navrhol by som workflow, ktorý pravidelne číta FB stránky preddefinovaných subjektov cez Graph API alebo nástroj typu PhantomBuster, extrahuje podujatia (názov, dátum, miesto, popis) a normalizuje ich do jednotného formátu; tieto údaje sa automaticky ukladajú do centrálneho XML/JSON feedu, ktorý tvorí základný RSS, a zároveň sa prekladá popis podujatí do angličtiny pomocou AI (napr. GPT‑5) pre generovanie druhého RSS feedu v angličtine, pričom celý proces beží automatizovane cez cron job alebo workflow platformu ako n8n či Zapier.Moje silné stránky su rýchlost učenia a držanie sa trendov moja slaba stránka je že ked sa pozerám na problém vidim viacero ciest ako ho vyriešit a neviem ktorá je ta správna hned od začiatku ale to predpokladam sa skúsenostami vyriešiMyslím si, že som vhodný kandidát, pretože mám záujem a motiváciu učiť sa nové veci a prispievať k tímu, zároveň som zodpovedný a spoľahlivý pri plnení úloh. Rýchlo sa učím a dokážem sa prispôsobiť rôznym situáciám, čo mi umožňuje efektívne zvládať aj nové výzvy.
47
GymnáziumIT procesný manažment49Áno1142172028Popraddohovorím sa/odborné texty čítam bez problémov14070Copilot/chat gpt mi umožňuje rýchlo experimentovať s rôznymi spôsobmi automatizácie a zefektívnenia práce. Páči sa mi, že dokáže generovať postupy, kontrolné kroky a návrhy riešení. Vďaka tomu si viem v rôznych nástrojoch, ako sú Python, SQL, Jira či rôzne CRM systémy, rýchlo overovať nápady, testovať možnosti automatizácie a hľadať spôsoby, ako zjednodušiť opakujúce sa úlohy. Je pre mňa zaujímavé sledovať, ako sa tieto nástroje vyvíjajú a ako ich možno prakticky využiť v bežnej firemnej agende.V predchádzajúcich rolách som pracovala s internými systémami, riešila technické a procesné problémy, analyzovala chyby a hľadala ich príčiny. Často som testovala nové funkcionality, overovala správnosť údajov a kontrolovala, či procesy fungujú podľa očakávaní.
Som zvyknutá pracovať systematicky, vyhodnocovať situácie, hľadať riešenia a komunikovať ich používateľom. Rýchlo sa učím nové nástroje a technológie a viem si samostatne poradiť s bežnými technickými úlohami (nastavenia zariadení, konfigurácie, práca v rôznych aplikáciách).
Tieto skúsenosti sú veľmi blízke práci, ktorá zahŕňa testovanie, automatizáciu, experimentovanie s nástrojmi a zefektívňovanie procesov.
Trendy v AI sledujem najmä cez oficiálne blogy Microsoftu a OpenAI, ako aj cez krátke praktické videá na YouTube a LinkedIne. Nové možnosti si často skúšam aj v praxi – vytváram si malé vlastné nástroje na prácu s dátami (napr. evidenčný systém pre včely a jednoduchý nástroj na sťahovanie údajov o počasí), čo mi pomáha lepšie pochopiť logiku procesov a možnosti automatizácie.Mojím mikroprojektom je vlastný nástroj na sledovanie vývoja včelstiev, ktorý som si vytvorila ako spôsob, ako sa učiť Python a SQL na reálnych dátach. Potrebovala som evidovať kontroly, porovnávať údaje a prepájať ich s počasím, preto som si vytvorila aj jednoduchý modul na sťahovanie a porovnávanie meteorologických dát.
Projekt ma naučil premýšľať nad dátovou štruktúrou, testovať funkcionality, riešiť chyby a hľadať praktické riešenia. Podobný prístup používam aj v práci, kde si vytváram malé pomocné nástroje na analýzu ponúk poisťovní a zjednodušenie opakujúcich sa úloh.
Nemám skúsenosti priamo s nástrojmi ako n8n, Make alebo Zapier, ale mám praktické skúsenosti s low‑code prístupom. Vytváram si vlastné malé nástroje na prácu s dátami – napríklad evidenčný systém pre včelstvá a modul na sťahovanie a porovnávanie údajov o počasí. Pri týchto projektoch kombinujem jednoduché skripty, SQL dotazy a logické prepojenia, čo mi pomáha rýchlo pochopiť princípy automatizácie a workflow.Áno, pracovala som s API pri svojich vlastných projektoch. Najčastejšie používam API služby Open‑Meteo, odkiaľ si sťahujem historické a aktuálne údaje o počasí. Dáta získavam cez API endpointy vo formáte JSON a následne ich spracovávam v Pythone a SQL.
Tieto údaje využívam vo svojom malom projekte na sledovanie vývoja včelstiev, kde porovnávam meteorologické dáta s vlastnými záznamami. Práca s API ma naučila pracovať s parametrami, dátovými štruktúrami a testovaním správnosti odpovedí.
Ak by som mala využiť moje skúsenosti a samovzdelanie v týchto nástrojoch, postupovala by som takto: Automaticky načítať prichádzajúce e-maily cez IMAP (Outlook/Gmail). Z e-mailu a prípadných príloh extrahovať text. Text spracovať AI modelom, ktorý identifikuje cenu, typ pobytu a výšku alebo typ zľavy. AI vráti údaje v jednotnom formáte (napr. JSON). Python skript údaje skontroluje a uloží do SQL databázy.
Určite sa to dá riešiť aj pomocou iných nástrojov, ktoré by som sa rada naučila používať.
Monitorovať FB stránky cez Facebook Graph API alebo jednoduchý scraping.
Získané podujatia uložiť v jednotnom formáte (JSON).
Pomocou AI normalizovať texty (názov, popis, dátum, miesto) do jednotnej štruktúry.
Z týchto dát automaticky generovať RSS feed.
Pomocou AI preložiť popisy do angličtiny a vytvoriť anglický RSS feed.
Silné stránky:
Systematickosť a organizácia – rada si vytváram procesy pri práci s dátami alebo automatizáciou.
Samovzdelávanie a technická zvedavosť – dokážem rýchlo nadobudnúť nové zručnosti, napr. v Python, SQL, AI nástrojoch alebo web scraping.
Spoľahlivosť a zodpovednosť – úlohy dokončujem dôkladne a včas.
Slabé stránky:
Menšia skúsenosť s niektorými nástrojmi – napr. niektoré nové AI alebo web scraping platformy som ešte nepoužívala, ale aktívne sa učím ich používať. (a tie dva zadania si určite vyskúšam :)
Perfekcionizmus – niekedy strávim viac času na detaile, čo sa učím optimalizovať, aby som udržala tempo práce.
pretože kombinujem skúsenosti s administratívou a prácou s dátami s technickými zručnosťami (Python, SQL, AI). Som systematická, spoľahlivá a rýchlo sa učím nové nástroje, takže dokážem efektívne spracovať a organizovať informácie.
48
Súkromne Gymanzium Katkin Park - Aplikovaná informatikaTechnická Univerzita v Košiciach - Informatika23Áno1232272027Kosicekomunikujem bez problémov40-6040-60Wan 2.2, Nano Banana Pron8n / make.com - okolo 10 uspechnych projektov (agentic flows, automatizácie, atd..), solo full-stack developer na aplikácii grantupme.eu, a viacero stránoknews.ycombinator (hckrnews)grantupme.eu - full stack aplikácia na sledovanie grantov, technológie - react, psql, firebase, deployment na VPS, docker, n8n, make - automatizácia procesov pomocou AI (recruting agentúra), AI scraper štruktúry webovej stránky, automatizácia pipeline z webovej stránky do hubspotu, automatizácia scrapovania grantov z európskych a slovenských portálov, whatsapp chatbot v n8nAno, pri väčšine vyššie spomenutýchnacitat mail, zisitme v akom formáte sú data - plain text, PDF, word, etc.., spracujeme data, pošleme do AI s promptom, ktorého výstup bude štandardizovaný json, validácia, zápis do dbdenne vyťahovať data z daných fb stránok pomocou API (ak to je možné), našli by sme najaky hlavný identifikátor podľa ktorého vieme povedať či tento príspevok už bol spracovaný v našom rss feede, ak nie spracujeme s AI agentom s predurčeným JSON výstupom, zapísať do rss feedu.

Počúvame rss feed, pri novom príspevku -> AI agent na preklad -> anglicky rss feed
pracovitý, zameraný na dotiahnutie projektov do konca, rad sa učím a púšťam sa do projektov, ktorým sa zatiaľ nerozumiemSom schopný pracovať samostatne bez podpory ostatných IT členov, mám bohaté skúsenosti v rámci automatizácie a online nástrojov, dokážem efektívne komunikovať a nemám problém pracovať na projekte od nápadu až po finálnu verziu.
49
SPŠE Zochovaešte neštudujem som tretiak na strednej ale som už prijatý na STU FIIT17Áno104227Bc. 2030 Seneckomunikujem bez problémov60 hodín mesačne120 hodín mesačneOpenClaw - zaujal ma tou ich integráciou všetkého a že je to taký akokeby Jarvis. Áno, mám skúsenosti s podobným typom práce. Napríklad pri mojich vlastných projektoch som navrhoval riešenia ktoré napríklad vyhodnocujú rôzne podnety samostatne bez nutnosti aby to riešil človek. Vyhodnotenie testou, dotazníkov atd..Trendy o AI sledujem prevažne na socialnych sietach. Instagram, TikTok, Youtube...Aktuálne pracujem na projekte podobnému Vintedu (marketplace) ktorý je však vylepšený o small brand integráciu takže začínajúce brandy môžu využívať túto platformu bez nutnosti vytvárať si shopify store alebo tak. Technológie použité pri tomto projekte sú - Next.js , Supabase, Postgres, Typescript. Výsledok zatial nieje nakolko stále aktívne pracujem na dokončení tohto projektu.Nie na týchto platformách priamo som ešte nepracoval.Áno s API som už pracoval pri vela mojich projektoch napríklad integrácia API packety na doručovanie, API requesty na databázu atd. atd.Navrhol by som automatizovaný workflow (napríklad cez n8n), ktorý po prijatí e-mailu extrahuje čisty text a odošle ho do AI modelu s presne definovaným JSON výstupom (cena, typ zľavy, výška zľavy, platnosť). Vystup by prešiel validačnou logikou (kontrola percent, vypočtu zľavy, formátu dát) a následne by sa štandardizované údaje automaticky uložili do databazy. Pri nízkej istote by sa zaznam označil na manuálnu kontrolu.pravidelne sťahovať nové podujatia z vybraných FB stránok (API/scraping), ich obsah poslať do AI na extrakciu a zjednotenie do pevného JSON formátu a uložiť do databázy. Z databázy generovať jednotný SK RSS feed. Ten následne automaticky preložiť cez AI do angličtiny a vytvoriť samostatný EN RSS feed.Za silne stránky považujem - viem sa rýchlo učiť, nemám problém pracovať samostatne ale ani v teame, som komunikatívny, skúsenosti s programovaním
slabé stránky - som perfekcionalista, nemám až také velke komerčné skúsenosti
Som vhodný kandidát pretože mam technické základy, skúsenosti s programovaním a silný záujem o AI a automatizáciu. Viem sa rýchlo učiť nové nástroje, pracovať samostatne bez IT podpory a navrhovať praktické riešenia ktoré reálne zefektívňujú firemné procesy. Zároveň mám motiváciu dlhodobo sa rozvíjať práve v tejto oblasti.Študent
50
SPŠT Martin, technické lýceum so zameraním na informatiku UMB v BB, Fakulta prírodných vied, aplikovaná informatika 23Áno1032272027Martin dohovorím sa/odborné texty čítam bez problémov80Kľudne plný úväzok,160Najviac používam Claude, lebo má presnejšie programátorské riešenia ako napríklad gemini alebo chatGPTNie ale praxoval som ako klasický web developerNieV rámci bakalárskej práce som tvoril Android mobilnú aplikáciu na určovanie druhou drevokaznych húb s využitím fuzzy logiky, bol problém nájsť knižnicu v pythone ktorá by dokázala pracovať s fuzzy logikou tak ako som potreboval, používal som javu, Android studio, jfuzzyLogicNieNiePrijatie e-mailu, extrakcia textu, AI extrakcia, validacia, zápis do DBZber dát, normalizácia dát, čistenie a strukturacia, databáza, generovanie RSS, generovanie feedu v angličtine Silné stránky: samostatnosť, zodpovednosť, ucenlivost, skúsenosti s programovaním
Slabé stránky: nie som líder, nie som až tak ambiciózny ako by som chcel
Mám skúsenosti aj s programovaním a tým že som mladý verím že mám dosť skúseností s AI aj v osobnom živote Študent
51
Harbord Collegiate Institute, TorontoBusiness Administration, University of New York in Prague35Áno1532272015Kosice, Slovenskokomunikujem bez problémov100100Wispr Flow - uzastna pomoc pre rychlejsiu a jednoduchsiu pracu a brainstorming; pouzitelne pre firemne procesyAno, v poslednych dvoch rokoch sa venujem AI riadenych workflows a automatizacii. Navrhujem a testujem mensie automatizacne prototypy. Mam prakticke skusenosti so strukturovanym prompt engineeringom a navrhom automatizacnej logiku ci kreativity. Spolocne sa venujem vyvoju softweru v healthcare sektore. ASiet X a Discord, Substack ale najviac siet X, na ktorej nachadzam najposlednejsie trendy a vyvoj v oblasti AI.Pouzivam automatizovany system vo svojej firme, z emailu su extraktovane data (OCR), premietnute do excelu, vysledne data su pouzite na tvorbu faktur. n8n, pre vyssie spomenutu automatizaciuAno, pracoval som s API pri integracii GPT modelov na spracovanie textov a ich nasledne prepojenie na Google sheetsExtrakcia textu z emailu - vytiahnutie udajov a ich konverzia do datovej struktury - vystup sa zapise do katalogu a posle sa notifikacie vybranym zamestnancomPravidelne monitorovanie FB stranky - tahanie udajov do datovej struktury s ulozenim v databaze - generovanie vlastneho RSS feedu, paralelne by sa urobil preklad a vytvoril druhy RSS feed s anglictinouSilne - kreativita, logika, trpezlivost, a praca so zakaznikom / slabe - nemam dlhorocnu prax s kodovanim pred erou AI, idem priliz do detailu, preferujem jasne definovane vstupy a ciele projektuMam procesne a logicke myslenie, vsimam si rozdiel medzi mnou a ostatnymi v tom, som velky fanusik AI a automatizacie, sledujem trendy novinky na dennej baze, ochota ucit sa nove veci a sposoby, mam velky prehlad o dostupnych technologiach ktore sa daju vyuzit pre zlepsenie chodu firmy a predovsetkym kreativita ktora mi pomaha vymysliet mozne zlepsenia a automatizacieŽivnostník
52
Dopravná akadémia prevádzka ekonomiky a dopravy zasielatešľstvoUniverzita Konštantína Filozofa v Nitre - predškolská elementárna pedagogika 32Áno515172025Bytča/Hrabové 129, PSČ 01401niečo rozumiem/čítam so slovníkom30 hodín 20 hodín Za posledný mesiac ma najviac nadchli LLM nástroje, pretože som zistil/a, že vedia veľmi rýchlo pomôcť s textami, nápadmi aj základným spracovaním informácií. Páči sa mi, že dokážu ušetriť čas pri opakujúcich sa úlohách a vidím v nich veľký potenciál do praxe.nie nemám nesledujem Môj najzaujímavejší projekt bolo vytvorenie svadobných pozvánok sama v Canve. Problém bol, že som chcela, aby boli presne podľa mojich predstáv a žiadna hotová šablóna mi nevyhovovala. Použila som Canva nástroje na grafiku a dizajn a výsledkom boli vlastnoručne vytvorené pozvánky, ktoré sa páčili všetkým hosťom.nie nemám nie AI by prečítala e-maily od hotelov a vybrala z nich dôležité informácie o zľavách. Automatizácia by tieto údaje vložila do katalógu a poslala oznámenie kolegom, aby všetko mali pripravené bez ručného prepisovania.Nemám skúsenosti s automatizáciou ani tvorbou RSS feedov, ale dokážem premýšľať logicky a učím sa rýchlo. Ak by som riešila tento úkol, snažila by som sa najprv pochopiť, ako získať údaje z FB stránok a potom ich preložiť do jednotného formátu, prípadne využiť AI na preklad do angličtiny.Som zodpovedná, dochvíĺna, pracovitá Hoci zatiaľ nemám pracovné skúsenosti v oblasti AI a automatizácie, absolvovala som kurz Tester softvérových aplikácií cez spoločnosť Accenture a som motivovaná učiť sa a rýchlo si osvojiť nové zručnosti. Verím, že ak mi dáte príležitosť, budem schopná efektívne prispieť k práci tímu a zlepšovať procesy vo firme. Som zodpovedná, samostatná a nadšená skúšať nové nástroje, čo mi umožní rýchlo sa adaptovať a prinášať hodnotu vašim projektom.materská dovolenka
53
Gymnázium PúchovVUT Brno/Fakulta informatiky 20Áno723272029Belušakomunikujem bez problémov50120Claude opus 4.6 - väčšia kvalita kódu, Gemini 3 pro - časté porozumenie a kvalitné vysvetľovanie, nanobanana - vylepšená tvorba obrázkovPočas školy robíme množstvo zložitých projektov, pri ktorých sa aj učíme používať AI.Nie somPrekladač pre jazyk Wren do pseudo assembleru. Práca v jazyku C, výsledok bol funkčný prekladač. Momentálne napríklad pracujem na interprete a aplikácií v jazyku C#N8n poznám, avšak nikdy som nepoužíval. Nepríde mi zložité sa v tom naučiť pracovať...nieAutomatizovaný systém neustále sleduje prichádzajúce e-maily a pomocou umelej inteligencie z nich okamžite vyťahuje kľúčové údaje o zľavách, termínoch a hoteloch. Tieto štruktúrované informácie sa prehľadne zobrazia zamestnancovi, ktorý ich jedným kliknutím overí a schváli pre ďalšie spracovanie. Po potvrdení systém automaticky aktualizuje akciu v online katalógu a súčasne odošle notifikáciu vybranému tímu, čím sa eliminuje ručné prepisovanie a urýchli predaj.Najväčšou bariérou je technická ochrana Facebooku proti sťahovaniu dát, čo vyžaduje neustálu údržbu a pokročilé nástroje na obchádzanie blokovania. AI následne čistí nekvalitné alebo neúplné vstupy od subjektov, čím zabezpečuje jednotný formát a bezchybný preklad. Finálnym riešením je tak stabilný a profesionálny kalendár bez ohľadu na chaos v pôvodných príspevkoch.Pracovitý, zodpovedný, mám analytické myslenie. Počas semestra som pomerne zaťažený, preferujem home-office.Myslím si, že som dostatočne flexibilný na učenie sa nových vecí a viem sa rýchlo prispôsobiť novej úlohe, ktorú je nutné splniťŠtudent
54
Stredná priemyselná škola elektrotechnická - Informačné a sieťové technológie (programátor) - 3.ročník -17Áno63427-Malá Ida komunikujem bez problémov40-50 hodín 100-120 hodín Claude 3 Sonnet od Anthropic - dobré na prácu s dlhým textom (pdf), pamätá si kontext v dlhej konverzácii, efektívne analýzyDvojtýždňová prax vo firme bart.sk kde som sa vytvoril CRUD generátor a potom to zautomatizoval s Github Copilotom. (pomocou templatu kódu mi Copilot vytváral entity s atribútmi do môjho projektu. Programoval som to v jazyku golang). Moje zdroje na sledovanie noviniek sú sociálne siete(instagram, tiktok) a účty týkajúce sa takého obsahu. Taktiež používam stránku na hľadanie špecifické ai modely. Link: https://huggingface.co/Jeden z mojich nedávnych (mirko) projektov bola self-promopting statická webstránka. Link: https://pomocne-stavebne-prace.org/
Pracujem s kamarátmi na web-aplikácií.
Mimlo toho aktívne pracujem na svojich projektoch.
Creao ai - testovanie generovania jednoduchých web-aplikácií;Áno. Použil som Whisper.ai API na prepojenie s mojím projektom pre transkript audia na text. Každý mail by prišiel do vyhradenej schránky. Potom pomocu vlastného backendu (alebo Power automate) sa priamo nápojí na mailbox ktoré sa automaticky uložia do vlastnej databázy. Potom text mailu (predmet, text, prílohu napr. pdf) sa pošle AI modelu ktorý pomocu uz pred zadaného promptu vyberie dáta ktoré potrebujeme v JSON formáte(väčšinou). Tieto dáta sa môžu zapísať potom do Postgresu. A na základe pravidiel kto a čo daný zamestnanec rieši systém pošle mail s predpísanou správou a s dátami ktoré potrebuje. Prvý krok by bol zber dát z FB napr. requestov v python aby sme pravidelne načítavali dáta. Následne by sme využili AI na extrahovanie požadovaných dát ktoré by to dalo do jednotného JSON formátu(hlavne aby sme mali rovnaké polia). Z tohto by sa vytvoril rss feed ktorý by sme pomocu Ai(napt. Chatgpt) preložili aj do angličtiny. A nakoniec upload nášho rss feedu. Moja silná stránka pre túto pracovnú pozíciu by bola moja motivácia a motivácia sa naďalej učiť, a rozvíjať v tomto obore nakoľko ma to baví, a chcem v tomto mojom zameraní naďalej pokračovať, a rozvíjať sa. Nemám problém výjsť z mojej komfortnej zóny a vymýšľať riešenia pre špecifické problémy. Mojím hlavným cieľom je získať ďalšie vedomosti a skúsenosti v mojom zameraní čo by mo táto príležitosť priniesla. Moje slabé stránky by bolo moje malé množstvo praxe v pracovnom prostredí, nakoľko som mal iba možnosť si to vyskúšať na veľmi krátku dobu, len na dvojtýždňovej študentskej praxi v brat.sk a na erasme v Slovinsku, kde som mal stáž vo firme OrcaIt v Murskej Sobote. Myslím si, že som vhodným kandidátom, pretože som ochotný sa neustále vzdelávať a učiť sa nové veci potrebné pre túto pozíciu. Mojím cieľom je svojimi vedomosťami a snahou prispieť k projektom, na ktorých budem pracovať, a dodať im pridanú hodnotu. Už tretí rok sa aktívne vzdelávam v oblasti IT, v škole a mimo nej, čo mi umožnilo nadobudnúť množstvo užitočných zručností.Študent
55
Univerzita KomenskéhoFakulta matematiky, fyziky a informatiky, Datová veda18Áno723272027-2028Bratislavadohovorím sa/odborné texty čítam bez problémov40–60 hodín mesačne podľa náročnosti štúdia a aktuálnych úlohPribližne 80 hodín mesačne s flexibilitou podľa potrieb projektuZa posledný mesiac ma najviac zaujal praktický spôsob využitia LLM modelov, najmä ChatGPT, na automatizáciu rôznych úloh. Zaujímavá je napríklad možnosť implementovať ChatGPT do chatbotov alebo na spracovanie otázok používateľov, generovanie odpovedí alebo analýzu textových dát. Pomocou API a jednoduchých skriptov sa dajú pomerne rýchlo vytvoriť nástroje, ktoré dokážu ušetriť čas a zefektívniť viaceré procesy.Priamy komerčný pracovný skúsenosť s takouto pozíciou zatiaľ nemám, ale podobné veci som skúšal vo vlastných menších projektoch. Experimentoval som napríklad s Pythonom a AI nástrojmi, napríklad s využitím LLM cez API na prácu s textom, generovanie odpovedí alebo jednoduchú analýzu dát. Zaujíma ma najmä to, ako sa dajú takéto nástroje prakticky využiť na automatizáciu rôznych úloh.Trendy v oblasti AI sledujem najmä cez technologické blogy, články a developer komunity. Často čítam diskusie na Reddit, napríklad v komunitách, kde sa zdieľajú nové nástroje, výskumy a praktické skúsenosti s AI. Občas sledujem aj Kaggle, kde je veľká komunita data science a machine learning vývojárov a kde sa dajú nájsť rôzne projekty a diskusie o práci s dátamiJedným z mojich menších projektov bol jednoduchý Telegram chatbot, ktorý využíval LLM model cez OpenAI API. Cieľom bolo vytvoriť bota, ktorý dokáže odpovedať na otázky používateľa alebo pomôcť s generovaním textu. Použil som Python, knižnicu pre Telegram Bot API a OpenAI API. Bot prijal správu od používateľa, odoslal ju do modelu a následne vrátil odpoveď späť do Telegramu.Priame praktické skúsenosti s low-code/no-code platformami ako n8n, Make alebo Zapier zatiaľ nemám, ale poznám ich základný princíp fungovaniaÁno, pracoval som s API v rámci menšieho projektu Telegram chatbotu napísaného v Pythone. Bot využíval OpenAI API na spracovanie textových otázok od používateľov. Po prijatí správy bot odoslal požiadavku cez API do LLM modelu a následne vrátil odpoveď späť do TelegramuNavrhol by som automatizovaný proces: najprv systém prijme e-mail od hotela a extrahuje text zo správy a z príloh (napríklad PDF). Následne AI model analyzuje text a vyberie potrebné informácie: názov hotela, popis akcie, výšku zľavy, dátumy platnosti ponuky a podmienky. Potom sa tieto údaje prevedú do štruktúrovaného formátu a automaticky sa zapíšu do katalógu. Nakoniec systém odošle notifikáciu vybraným zamestnancom o novej akciovej ponuke.Navrhol by som automatizovaný workflow: systém by pravidelne kontroloval vybrané Facebook stránky a získaval informácie o nových podujatiach. Následne by sa tieto údaje zhromaždili a previedli do jednotného formátu (názov podujatia, dátum, miesto, popis, odkaz). Na základe týchto štruktúrovaných dát by sa vytvoril RSS feed. Následne by sa AI mohla použiť na preklad popisov podujatí do angličtiny a na vytvorenie samostatného RSS feedu v angličtineMojou silnou stránkou je schopnosť rýchlo sa učiť nové technológie a samostatne hľadať riešenia problémov
Niekedy mám problém s koncentráciou, najmä pri dlhších alebo monotónnych úlohách
Myslím si, že som vhodný kandidát najmä preto, že ma oblasť AI a automatizácie naozaj zaujíma a rád experimentujem s novými nástrojmi. Mám základné skúsenosti s programovaním v Pythone a pracoval som aj s API a LLM modelmi v menších projektoch. Zároveň som zvyknutý učiť sa nové veci samostatne a hľadať praktické riešenia problémov, čo je podľa mňa pri tejto pozícii veľmi dôležitéŠtudent
56
Obchodná akadémiaNeštudujem28Áno71326NemámPoprad dohovorím sa/odborné texty čítam bez problémov100100NeviemEste nie ale rýchlo sa učímGoogleNetusimEste nie Zatiaľ tiez nieTak by som jej dal pokyn aby z textu vytiahla len cenu, typ a výšku zľavy. Neviem ako na to.Silné: samostatnost, rýchlo a rada sa ucim nové veci, zodpovednosť
Slabé: veľmi malá socializacia (vyhýbam sa ludom ak je to mozne), niekedy bývam roztrzita
Popri praci mam vela voľného času ktorý sa snažím co najefektívnejšie využívať.
57
Stredná zdravotnícka škola / MasérNavštevujem vysokú školu. Absolvoval som som rekvalifikačny kurz s názvom Programátor webových aplikácií od Primafuture s.r.o.25Áno154116-Pieštanykomunikujem bez problémov40/8040/80Najviac ma nadchol Cursor IDE pretože sa stále zlepšuje a pridávajú stále nové funkcionality, ktoré zvyšujú produktivitu pri programovaní.Áno, momentálne spolupracujem ako webový programátor (PHP) s firmou, ktorá sa zaoberá digitálnym marketingom. Okrem správy webov mám na starosti automatizácie firemných procesov. Taktiež sa posielam ako projektový manažér na štarte nového AI projetku.https://www.youtube.com/@nateherkVytvoril som vlastný Wordpress plugin, ktorý automaticky importuje akékoľvek typy článkov priamo z Google Sheets v spolupráci s n8n workflowom. Taktiež som zdokonalil Dify workflow, ktorý generuje SEO optimalizované články. Okrem iného som ešte vytvoril celý flow rozosielania cold mailov - od scrapovania potencionálnych klientov az po personalizovaný email, v ktorom sa nachádzal SEO audit stránky.Ako som hovoril, n8n som použil pri developovaní vlastného pluginu na Wordpress. Pri tasku s odosielanim cold mailov som vytvoril workflow, ktorý filtroval iba validné emailové schránky - ochrana pred Spam Bounce. Vytvoril som pomocou neho aj RAG chatbota.

V Dify som vytvoril workflow, ktorý som nazval Personal Shopper - je napojený na Woocomerce API a pomáha zakazníkom vyhľadať produkt v e-shope alebo len poradiť alebo naviesť na správny produkt.

Make som použil keď som vytváral worfklow na automatické odoslanie Newsletteru.
Áno, konkrétne s Chatgpt, Claude, Ecomail pri spomínaných workflowoch. Pri jednom osobnom projekte som pracoval s API, ktorá vracal kalorické hodnoty potravín ale uz si nespomínam na jej názov.Spravil by som n8n workflow, ktorý by fungoval takto :

Gmail node (listener : prichádzajúci email)
|
LLM - sem by som pridal prompt aké údaje potrebujem vytiahnuť a definoval by som mu štruktúru výstupných dat
|
Google Spreadsheet (alebo nejaká cloudová služba, DB podla potreby) - zapisal by som tieto data z LLM
Flow 1

HTTP api - použil by som endpoint ktorý vracia všetky eventy
|
Filter - vyfiltroval by som ich iba pre nadchádzajúce
|
LLM model - vrátil by som ich v jednotnej štruktúre
|
Spreadsheet/Cloud/DB - zapísať by som data



Flow 2
Get data - vytiahol by som si všetky relevantné data podla casu
|
Function node - v tomto node by som pomocou JavaScriptoveho kódu vytvoril XML súbor z týchto dát
|
LLM - prelozil by som toto XML do angličtiny
Silné stránky:
Som analytický typ – keď riešim problém, snažím sa nájsť jeho koreň, nie len rýchlu záplatu. Baví ma prepájať nástroje a procesy tak, aby fungovali hladšie a s menším množstvom manuálnej práce.

Slabé stránky:
Niekedy sa viem príliš ponoriť do optimalizácie a ladím veci viac, než je nevyhnutné. Učím sa lepšie odhadovať, kedy je riešenie „dosť dobré“.
Verím tomu, že som vhodný kandidát na túto pozíciu kvôli tomu, že sa specializujem a mám praktické skúsenosti s automatizáciami.

Zároveň mam technický background, keďže mám skúsenosti aj s čisto programátorskou prácou.

Myslím si, že som vhodný kandidát na túto pozíciu, pretože sa venujem automatizáciám a mám s nimi praktické skúsenosti. Baví ma hľadať spôsoby, ako veci zjednodušiť a zefektívniť.
Zároveň mám technický background a skúsenosti s programovaním, takže rozumiem aj technickej stránke riešení a viem ich nielen navrhnúť, ale aj reálne implementovať.
58
Technická univerzita v KošiciachFakulta elektrotechniky a informatiky, odbor Inteligentné systémy20Áno822262026Košicekomunikujem bez problémov80120Claude – na analýzu a riešenie komplexných úloh.
Gemini – na rýchle a jednoduché úlohy, nemá obmedzenia pri analýze obrázkov a súborov v bezplatnej verzii.
zatiaľ niehttps://www.youtube.com/@mreflow/videos - videá o novinkách v oblasti AI

okrem toho sledujem aj Discord kanál nášho vyučujúceho, prof. Petra Šinčáka, ktorý ho vytvoril špeciálne pre študentov a pravidelne tam zdieľa obsah týkajúci sa AI

aktívne sa zúčastňujem odborných konferencií a workshopov, napríklad SPACELAB Summer School 2025 a programu Huawei „Seeds for the Future 2025“
Cassini Hackathon 2025
Vyvinuli sme webovú aplikáciu zameranú na gamifikáciu turizmu. Mojou úlohou v tíme bolo spracovanie dát o kvalite ovzdušia zo satelitných zdrojov (Sentinel Hub) a údajov o počasí (Open-Meteo).

V hackathone sme zvíťazili a získali sme miesto v inkubátore na ďalší rozvoj aplikácie ako startupového projektu. Na projekte pokračujeme od apríla 2025.
zatiaľ nieRealizoval som projekt zameraný na porovnanie Cloud API a lokálne spusteného modelu Qwen 3. Modely som testoval na AI-generovanom datasete obsahujúcom všeobecné otázky z rôznych oblastí.Najprv musíme extrahovať hlavnú informáciu z e-mailu. Predpokladám, že pôjde o názov firmy, akciové pobyty a dátum konania akcie. Riešiť to môžeme pomocou prompt engineeringu a LLM modelu, ktorý následne zhrnie informácie a môže ich aj zapísať do súboru. Pre optimalizáciu môžeme e-maily čiastočne skracovať – napríklad odstránením záverečných častí typu „ďakujem za pozornosť“ – pomocou skriptu, aby sme ušetrili tokeny a náklady. Následne automaticky pridáme štruktúrované informácie do katalógu a odošleme ich vybraným zamestnancom.Pridať linky na FB stránky subjektov do RSS feedu, extrahovať popisy podujatí a zoradiť tieto informácie podľa šablóny (napríklad: organizátor, téma, dátum, mesto a čas). Následne ich preložiť do angličtiny. To všetko sa dá urobiť pomocou LLM a pravidelného promptu. Môže nastať problém, ak bude informácia o podujatí na obrázku – v takom prípade buď pošleme obrázok na spracovanie priamo do LLM, alebo, ak to bude príliš náročné, tieto príspevky odfiltrujeme a pošleme na manuálne spracovanie.Silne:
Komunikatívnosť a spoločenskosť: Rád nadväzujem nové kontakty a pracujem v tíme.

Ochota učiť sa: Nebojím sa nových výziev a neustáleho vzdelávania.

Odborné zameranie: Študujem/pracujem v odbore prepojenom s AI (umelou inteligenciou).

Slabe:
Slovenský jazyk: Na Slovensku žijem skoro 3 roky. Hoci s komunikáciou so Slovákmi nemám problém a robím to rád, stále sa občas dopúšťam gramatických alebo rečových chýb. Neustále však pracujem na svojom zlepšení.
Som študent a verím, že študenti sú často motivovanejší než skúsení pracovníci. Ak ste študent, urobíte maximum pre to, aby ste získali svoju prvú odbornú prax. Okrem motivácie mám skúsenosti s programovaním a samoštúdiom vďaka univerzite. Taktiež mám skúsenosti s tímovou prácou a komunikáciou, ktoré som nadobudol vďaka pôsobeniu v medzinárodnej študentskej organizácii.Študent
59
Informačné a sieťové technológieTUKE/FEI/Informatika23Áno2541262026Spišská Nová Veskomunikujem bez problémovpart time do 80 hodin mesacne na zaciatok s timomrovnako ako vyssie max part time s timomAntigraviti, gemini API, gemini 3 pro high, gemini 3.1 flash (lite), nano banana proVediem 4-členný tím špecialistov (projektový manažér, dvaja technickí developeri a sales/tech konzultant), ktorý pomáha firmám efektívne integrovať moderné technológie do ich procesov.

Aktuálne končíme štúdium na univerzite a hľadáme ambiciózne projekty, kde môžeme naplno využiť naše skúsenosti. Prečo by spolupráca s nami mohla byť pre Vás prínosom?

Komplexný prístup: Pokrývame celý cyklus od analýzy procesov a návrhu architektúry až po samotný vývoj a nasadenie.

Flexibilita: Vieme začať ihneď na báze part-time (10-20h týždenne na osobu) s prechodom na full-time od júla, čo nám umožňuje plynulý onboarding do Vašich procesov.

Transparentnosť: Fungujeme na báze projektového ohodnotenia alebo mesačného retainera – všetko závisí od rozsahu prác a Vašich potrieb.

Nižšie pripájam naše portfólio a webovú stránku pre lepší prehľad o našich doterajších projektoch:

Web: https://automatizace-ai-jvuw2ll.gamma.site/

Portfólio: https://digitalne-reality-0divhz8.gamma.site/
vseobecne ale priamo sledujem novinky na google(gemini) relese strankach aby tam nebol ziaden balasts timom s ktorym by som s vami chcel nadviazat partnerstvo sme robili system pre financne oddelenie spedicky kedy sme s faktur vytahovali kriticke data a pripravovali ich na import do financnych systemov ako je pohoda, abra atd. potom sme robili crm+diagnosticky system pre autoservisy (vyuzitie n8n na pozadi)n8n aj s poslednymi updatami spolu s timomgemini APIweb scraping a analyza nad prichdzajucimi datami vyuzitim spravne prompt engineeringuZber: Použiť Apify (Facebook Event Scraper) na extrakciu dát z cieľových URL (obídenie reštrikcií Meta API).

Spracovanie: Prepojenie cez Make.com. GPT-4o transformuje surový text na jednotný formát (Názov, Dátum, Miesto, Popis).

Distribúcia: Generovanie XML (RSS 2.0) pre slovenskú verziu.

Lokalizácia: Automatický preklad slovenského feedu cez DeepL API a publikácia anglického RSS.
push na deadlines a dosiahnutie perfekcionizmu, vyzadovanie loyality ferovosti a priamej komunikaciineponukam iba individualnu osobu a to seba ale ponukam tim 4 ludi ktori by vedeli pomoct firme a dodat zaujimave projektyZamestnanec PM
60
SPŠ elektrotechnická - elektortechnikaSTU FIIT inteligentne softverove systémy23Áno2530362026Košicekomunikujem bez problémov120100Nieje to sice nastroj ale je to Multi-Agent Cooperation a self-healing kodu Ano ako diplomovu pracu mam portal ktory stahuje granty z roznych portálov vytahuje z nich informacie (výška príspevku, platnost od-do, podmienky poskytnutia prispveku...) a zaroven softvér na vypocet mzdy, zadavanie dochadzky, nepritomnosti, a HR TLDR AIAutomatické Vyhľadávania a stahovanie grantov, extrahovanie dvolezitych udajov o grante z roznych dokumentov a stranok a parovanie grantov na pouzivateľov este to nieje dokoncene ale dokaze to najst na stranke vsetky granty, stiahnut ich, analyzovat ich, da im tagy a oznaci do akej skupiny patria, precitat dokumenty vybrat z nich dvolezite udaje, a nasledne aj naparovat na profil/firmu pouzivatela, pouzity bol python, django framework

Hr nastroj na dochadzku, vypocet mzdy, ziadanie nepritomnosti, schvalovanie .... cely dochadzkovy system pre zamestnancov s pruznym pracovnym casom, a naslednym preklopenim do mzdy

Scraper na nehnutelnosti, a nasledne zistenie pozicie na mape, ai analyzu danej nehnutelnosti
Skusal som to len zo zauimavostiGeminy - pri analyzovani grantov, pri vytvoreni vlastneho agentickeho scrapera stranok s self healing mechanizmom
geminy- pri analyze nehnutelnosti
Analyzator zmluv - stiahnutie zmluv a vybranie potrebneho vyzadovanej hodnoty z textu do excelu
Monitoroval by som emailovu schranku v moment co by tam prisiel email by som dany obsah precital (ak je to Fotka/Neselectovatelny text pomcoou OCR) nasledne by som dany obsah dal LLM ktoremu by som dal optimalizovany prompt ktory by mi vracal validny JSON s udajmi ktore chceme (ak nevrati tak bude tam retry mechanizmus ktory sa pokusi znovu x - krat alebo ak to bude neaka chyba ze sa tam nenachadza tak to skipne) a zaroven by vytiahol coho sa to tyka podla coho by sme sa rozhodli komu to ma ist do mailu ....Extrakcia udajov pomocou integracie na facebook alebo pomcoou scrapera, nasledne text sa extrahuje ulozi do db ako sk-text a zasle do LLM na analyzu preklad a zarovne aj ulozenie do Databazy ako en-text

Problemy ktore sa mozu vyskytnut
Duplicitne podujatia, fejkove podujatia,
Mam tehcnicky backgorund, kusenosti s vyvojom s AI, a vzdy dotiahnem co som zacal do konca, no niekedy sa snazim spravit vsetko najdokonalejsie namiesto toho aby som sa pohol dalej Myslim si ze som vhodny kandidat pretoze som uz robil na podobnych projektoch a implementoval a vyuzival technologie ktore chcete/planujete využívať, mam skusenosti v tejto oblasti a snazim sa vzdy ak ide aplikovat najmodernejsie postupy a technologieŽivnostník
61
Súkromné Gymnázium Futurum, TrenčínUniverzita Komenského, FMFI UK, odbor Dátová Veda20Áno723262029Nové Mesto nad Váhomkomunikujem bez problémovcca 50-60 mesačne, môže sa zmeniťčo najviac ako sa dá :) (60-80h)Grok AI, pretože aj free verzia vie robiť pomerne kvalitné videá z obrázkov, okrem toho bežné používanie ChatGPT.Programujem v pythone dlhšiu dobu, mám prehľad nad základnými a aj pokročilejšími dátovými štruktúrami, bežná tvorba projektov vo vysokoškolskom prostredí. Skúsenosť s Claude code a ostatnými AI nástrojmi.Väčšinou si info dohľadávam sám na internete, nikde konkrétne.Môj najzaujímavejší mikroprojekt bol univerzitný projekt v Pythone, kde som implementoval robota pohybujúceho sa v štvorcovej mriežke s prekážkami a predmetmi. Problém spočíval v tom, že robot sa pohyboval automaticky v zadanom smere až po najbližšiu prekážku alebo okraj a počas pohybu zbieral predmety z políčok, cez ktoré prešiel. Použil som Python a objektovo orientovaný prístup, najmä návrh tried, prácu so stavom objektu a logiku pohybu v 2D priestore. Výsledkom bol funkčný program, na ktorom som si výrazne precvičil algoritmické myslenie, debugging a návrh čitateľného kódu.Zatiaľ nie.Raz som skúšal použiť X API na sledovanie postov z vybraných účtov, týkalo sa to súkromného projektu. Najprv by som všetky prichádzajúce e-maily centralizoval na jedno miesto. Pomocou AI by som z neštruktúrovaného textu vyťažil dôležité informácie o zľavách, ako názov hotela, termín, výšku zľavy a podmienky. Tieto údaje by sa následne uložili do jednotného formátu, aby sa dali automaticky zaradiť do katalógu. Pri nejasných alebo neúplných údajoch by som pridal manuálnu kontrolu. Po overení by sa informácie automaticky rozoslali vybraným zamestnancom.Najprv by som skúsil zohnať potrebné API, aby som mal prístup k dátam z FB, potom by som vytvoril kód, ktorý by mal za úlohu sledovať konkrétne účty a ich posty. Z postov by vyčítal potrebné info a údaje by ukladal do jednoliateho formátu, s ktorým by sa neskôr dalo pracovať a meniť jazyk. Potencionálne problémy by možno boli zohnať funkčné API, nezaregistrovanie nejakého podujatia, sledovanie, či sa neskôr po pridaní podujatia do feedu podujatie nezruší. Kľúčom by bolo nielen automaticky extrahovať údaje z postov, ale aj priebežne kontrolovať zmeny, validovať kvalitu dát a udržiavať jednotný formát pre slovenský aj anglický RSS feed.Silné: poctivý vo svojej robote, rýchly v pochopení nových konceptov, viem pracovať v tíme
Slabé: občas preferujem vlastné riešenie problému, aj keď je zložitejšie
Zaujala ma práca s AI, pretože ho používam často na rôzne veci, či už generovanie videí alebo školské potreby, takže si myslím že práca s ním by mi bola blízka a neomrzelo by ma s ním narábať ani po dlhšej dobe. Taktiež som študent Dátovej vedy, v ktorej sa AI veľmi zíde.Študent
62
GymnáziumZdravotnícka fakulta40Áno922152008Michalovceniečo rozumiem/čítam so slovníkomfull timefull timeGemini, Chatgpt, Claude Code, Antigravityvaicode.skfacebook skupiny o AI a podobnePoužívam na tvorbu Claude Code a AntigravitySkúsenosti mám, ale nepoužívam nakoľko si dokážem nakódiť skoro čokoľvek cez Claude Code a Antigravity.Pre vlastnú stránku mám prepojené GPT-4 a prepojenie API na vlastnú aplikáciu na nabíjanie elektromobilovS pomocou Claude Code cestu nájdem.S pomocou Claude Code navrhnemPracujem samostnatne celý život, vzdialenosť do Žiliny.Podľa textu dotazníka nie som vhodný kandidát, ale hľadám partnerstvo, kde by som dostal feedback na moju prácu a niekoho, kto by mi ukázal, ako sa ešte zdokonaliť v praci s AI kódermi.s.r.o.
63
Stredná Priemyselná škola Považská Bystrica, Informačné a sieťové technológie (aktuálne som v maturitnom ročníku)x19Áno92125xDolná Mariková 018 02komunikujem bez problémov70 ale aj kľudne viac120 ale aj kľudne viacGoogle Gemini, síce je to mainstream ai nástroj ale doteraz som aktívne používal ChatGPT, ale gemini mipríde lepší a vytrénovanejší v odpovediach. Samozrejme som skúšal aj modely ako suno, na tvorbu pesničiek a páčilo sa mi ako ai vytv=aranie hudby napreduje a je skoro na nerospoznanie od reálnych pesničiek.Nemám priamo s AI nástrojmi aj keď som sa snažil pokúsiť vlastný AI assitent, moc ďaleko som sa nedostal ale v budúcnosti by som si chcel vytvoriť vlastného AI assistenta. Pracoval som ale na pár programátorských projektoch pre pár firiem v prípade záujmu môžem priblížiť co presne som robil.Väčšinou sledujem novinky na youtube, instagrame, reddite a xPotreboval som prepojiť lacnú laserovú tlačiareň s raspberry Pi a web serverom aby som mohol posielať súbory od všade zo sveta bez problémov do firmy. Nazval som to eFAX a firma pre ktorú som to robil to aktuálne využíva na dennej báze.Bohužiaľ nie ale rád sa naučim niečo nové.Použival som API token GPT na prepojenie s visual studio code aby som mohol použivať AI features pri programovaní. Bolo to dávnejšie teraz už sa api token priraďuje sám, ale vtedy to bola bolesť spojazdniť.Najprv by som konvertoval typy formátov na spracovateľný formát. Potom by som dal AI vytiahnuť dôležité info ako názov, vyška zľavy, typ pobytu a podobné. V prípade podozrivých chybných údajov by som to poslal fyzickému zamestnancovi na kontrolu. Následne by som to uložil asi do niakej databazy,z ktorej by AI vytvorilo štruktúrovaný pekný email a poslalo zamestnancom na mail.Zlý preklad, nesprávne spracovanie z dôvodu rôznych formátov, spam FB stránky, ktoré by mohli zahltiť systémMojou silnou stránkou je technické a logické myslenie, vďaka ktorému dokážem riešiť problémy a pracovať s technológiami. Som tiež podnikavý a rád skúšam nové projekty a nápady. Slabšou stránkou môže byť menšia skúsenosť z praxe a to, že sa niekedy sústredím na príliš veľa projektov naraz.
Som vhodný kandidát, pretože mám technické a logické myslenie a dokážem rýchlo analyzovať problémy a hľadať efektívne riešenia. Zároveň sa rád učím nové veci a pracujem na vlastných projektoch, čo mi pomáha získavať praktické skúsenosti. Myslím si, že by som vedel priniesť nové nápady a zodpovedný prístup k práci.Študent
64
Gymnázium Šrobárova, KošiceCzech Technical University in Prague - Master’s Degree-Specialization: Managerial Informatics23Áno2520242027Košicedohovorím sa/odborné texty čítam bez problémov40 hod. mesačne80 hod. mesacne Cloud a jeho self tunning pri programovani NieLen socialne siete System for Recording Vital Signs and Physical Activities from Wearable
Design and implementation of an IoT ecosystem for collecting biometric data in real time
from wearables, including an Android application (BLE communication), local data synchronization and cloud storage for subsequent analysis.
Android aplikacia, praca s Cloudom, Architektura systemu
NieNieAutomatické spracovanie e-mailov (IMAP/API).Extrakcia textu z tela + príloh (PDF/OCR).
Použitie AI modelu na prevod textu do pevného JSON formátu (hotel, cena, zľava, platnosť, podmienky). Validácia dát (formát dátumu, čísla, mena) .Automatické uloženie do katalógu + notifikácia zamestnancom (mail/Slack). Nejasné prípady idú na manuálnu kontrolu.
Tvorba obsahu
Monitorovanie FB stránok cez API alebo scraping.
Extrakcia podujatí a ich normalizácia do jednotného formátu.
Generovanie RSS feedu.
Preklad existujúceho feedu do angličtiny pomocou AI.

Problémy:
Obmedzenia FB API → riešenie: oficiálne API + caching.
Neúplné alebo nekonzistentné dáta → validácia + fallback.
Duplicitné podujatia → deduplikácia podľa názvu/dátumu.
Chyby v preklade → kontrola formátu + automatická validácia.
Technické myslenie a schopnosť navrhovať automatizáciu.
Rýchle učenie sa nových technológií.
Niekedy venujem príliš veľa času detailom.
Mám technické zázemie, rozumiem automatizácii a práci s dátami a viem navrhnúť praktické riešenia, ktoré šetria čas. Zároveň sa rýchlo učím a viem pracovať samostatne.Študent
65
SPU NitraNiesom študent33Nie200Niesom študentZlaté Moravcekomunikujem bez problémovNiesom študentNiesom študentvšetky nástroje od google, kvoli ich ekosystému ako prepájaju všetky veci medzi sebou a budujú tak za mňa niečo čo úplne pochová konkurenciu ak nezačnú robiť niečo navyše. áno. živím sa AI a pracujem s tým teda denne (Make, relay, higgsfield a všetky klasické LLM modely) https://www.youtube.com/@chatbuilders
https://www.youtube.com/@Itssssss_Jack
Martin Kováč na LinkedIn.
https://www.youtube.com/@bartosmarek

a potom podobné kanály či na youtube, alebo Linkedin. Je toho veľa a vždy si vyberám podľa potreby alebo čo ma zaujme, keďže každý má iný štýl a hovorí o AI inak.
asi automatizácia na sociálne siete, ktorá bola v dvoch verziach. Plný automat a potom aj poloautomat s medzikrokom, kde človek vstúpi v určitom kroku aby schválil výstup pred publikáciou. áno, n8n a make. viac ale make, kde som postavil niekoľko automatizácii ako napr social media automat, zrhnutie pdf súborov, prepis porady, objednávkový automar z google forms atď. áno, pri make sa bez toho ani nedá. Alebo napr. experiment cez Antigravity od google na social media automat.Môže sa to urobit tentokrat cez nástroj relay app, ktorý ja považujem v mnohých prípadoch za lepší pri určitých úlohach ako táto.

- Trigger (Spúšťač): Gmail / Outlook (Sledovanie nových e-mailov od hotelov).

Action: Extract data with AI (Zabudovaný Relay modul, kde len zakliknete: cena, typ zľavy, výška zľavy).

Human-in-the-loop (Voliteľné): Relay vám umožní pridať krok na rýchle schválenie AI výstupu človekom pred zápisom.

Action: Add row to Table / Airtable (Zápis do vašej databázy).

Action: Send notification (Notifikácia o novom pobyte do Slacku alebo e-mailom).
Tu je zjednodušený postup pre Make.com:

Zoznam URL adries FB stránok (vstupné dáta).

Apify Scraper (automatický zber podujatí z FB).

Make.com scenár (riadenie celého procesu).

OpenAI (ChatGPT) modul (zjednotenie formátu popisu).

OpenAI modul (preklad textov do angličtiny).

Google Sheets (databáza pre ukladanie podujatí).

RSS modul v Make (vytvorenie štruktúry feedu).

Webhook Response (vygenerovanie finálnej URL adresy pre RSS odber).
Silné: spolahlivosť, chcieť vyriešiť problém a nehladať ako sa to nedá, zodpovednosť
Slabé: netrpezlivosť občas,
Pracujem s tým veľmi často a preto mám už know how, kedy ktorý nástroj použiť. Rozmyslam nad úlohou komplexne a najskôr sa vždy snažím zvážiť všetky možnosti skôr ako sa pustím do riešenia.
Samostatnosť je môj najväčší parťák. Ak si neviem rady, spýtam sa AI a problém vždy vyriešim. Takže absolútne odpadáva možnosť, že som na niekom závislý ak ide o AI a automatizácie.
66
SPŠE Zochova/ programovanie digitálnych technológií Žiaden 17Áno8.50NeviemHrubý Šúr komunikujem bez problémov2222Claude Opus 4.6. Píše neskutočný kód. Za pár minút spraví niečo čo by trvalo mesiace. Ano. Sám sa venujem vlastným projektom pre rôznych klientov tohoto typu. Vytváram ai a automatizačné riešenia pre pracovné workflowy ktoré šetria čas a peniaze. Instagram. Kamaráti ktorí sa v tomto poli vyžívajú a o každej jednej novinke viem skôr než vyjde. A dostávam email updatey. O najzaujímavejšiom mám mlčanlivosť kým nebude predaný ale pomocou ai vie šetriť štátnej inštitúcií 20-30k ročne. Použité boli 3 rôzne ai api, databáza postgre, fast api, web rozhranie...

A projekt na ktorom robím práve teraz tak je jednoduchší. Je to aplikácia na prefarbovanie oblečenia. Vysvetlim. Klient spolupracuje so začínajúcim eshopom. Eshop má fotky oblečenia len v jednej farbe ale daný kúsok má n farieb. Tento softvér cez google gemini api a nano banana pro prefarbí input oblečenia. Je spraveny web interface s flaskom na backend. Do interface sa používateľ prihlási cez Google OAuth a vie používať aplikáciu. Je hosťovana lokálne na mojom rpi5 a sprístupnená cez Cloudflared tunnel.
Áno. S n8n som sa hral a testoval pár funkci. Je to dobrá hračka ale reálne robustné automatizácie ktoré sú user friendly a ak chcem mať čo najväčšiu flexibilitu tak robím radšej vo vlastnej réžii. Python. Ano.
Google gemini api - automatizácia s oblečením
Open ai api - automatizácia pre štátnu inštitúciu
Ollama Api - bežal som lokálne
A fast api ale to sa asi neráta.
Úplne jednoduché.
Obsah emailov by som cez api vložil do llm a očakával striktný json výsledok.
Pre zaistenie bezchybnosti vieme dať rovnaký dotaz rôznym llm a porovnať výsledky či sa zhodujú. Bolo by to náročnejšie na tokeny ale ak je bezchybnosť nevyhnutná tak to stojí za to.
Viac možností. Na získanie dát z Facebooku vieme použiť Facebook api ak nejaké poskytujú. Ak nie tak ich môžeme získať webscrapingom. Následne ich vložíme do llm a vypýtame si striktný json s informáciami ktoré potrebujeme. Rss feed vieme vytvoriť cez python a fast api. Silné: vibecodovanie, programovanie, analytické, logické a algoritmicke myslenie, rýchla práca, rýchlo sa učím používať nové nástroje, dobre hrám na gitare
Slabé: mám veľké množstvo projektov a na všetko poviem ano a niekedy sa mi to nakopí a nestíham
Myslím si že som vhodný lebo veľmi podobnej práci sa venujem dlho vo vlastnej réžii a ide mi to. Vyznám sa do ai nástrojov a viem ich používať vo svojom workflowe. Viem pracovať samostatne. Mám skúsenosti.
67
SOŠE TT mechanik/elektrotechnikNemam17Áno60NemamTrnava Veterná 10komunikujem bez problémovŠtudent Sš3-5 hodín záleží podľa toho ak budem doma (väčšinu budem)Grok AI pretože nemá žiadne hranice a vie vygenerovať všetko podla pokynovBohužiaľ nie ale neznamená že sa to nemôžem naučiťPoužívam zvyčajne tiktok kde sa clovek vie dozvedieť väčšinu informacii ohladom AI.Vytvoril som niekoľko esport turnajov pomocou AI (nápady na turnaje a aj specificke hry). Niekoľko powerpoint prezentácii o špecifických témach. Zatiaľ nemamBohužiaľ niePorovnal by som ceny blízkych hotelov, zistil by som aké benefity prinášajú tie vaše a zistil ako by som kvôli nim mohol zvýšiť cenu aby boli spokojny aj zakaznici a aj vy. 1️⃣ Konfigurácia zdrojov
Ručne udržiavaný zoznam sledovaných subjektov.
Obsahuje:
názov / ID FB stránky
platforma (facebook)
región / mesto
typ subjektu (mesto, kultúrne centrum, múzeum…)
jazyk zdroja
Príklad:
JSON
Copy code
{
"source_id": "visitbratislava",
"platform": "facebook",
"page_id": "VisitBratislava",
"region": "Bratislava",
"language": "sk"
}
2️⃣ Zber dát z Facebook
Preferovaný spôsob
Facebook Graph API
čítanie „Events“ z konkrétnych stránok
Alternatíva
scraping verejných FB eventov (ak API nie je dostupné)
➡️ Výstupom sú surové dáta (raw events) uložené do DB / JSON úložiska
➡️ Raw dáta sa nemažú (audit, spätné spracovanie)
3️⃣ Normalizácia dát (Unified Event Model)
Každý event sa prevedie do jednotného formátu TKP.
JSON
Copy code
{
"event_id": "fb_123456",
"title": "Letný koncert na námestí",
"description": "Hudobný večer pod holým nebom...",
"start_datetime": "2026-06-12T19:00:00+02:00",
"end_datetime": "2026-06-12T22:00:00+02:00",
"location": {
"name": "Hlavné námestie",
"city": "Bratislava",
"country": "SK"
},
"organizer": "Mestské kultúrne centrum",
"source_url": "https://facebook.com/events/...",
"language": "sk",
"last_updated": "2026-02-20"
}
Rieši sa tu:
čistenie textov (HTML, emoji)
fallbacky (chýbajúci koniec, miesto)
deduplikácia rovnakých eventov
zjednotenie názvov a formátov dátumov
4️⃣ Generovanie RSS feedu (SK)
Z normalizovaných dát sa generuje hlavný RSS feed.
Zásady:
1 <item> = 1 podujatie
stabilné guid (event_id)
jednotný formát popisu
Príklad <description>:
HTML
Copy code
<strong>Date:</strong> 12 June 2026, 19:00<br/>
<strong>Location:</strong> Hlavné námestie, Bratislava<br/>
<strong>Organizer:</strong> Mestské kultúrne centrum<br/><br/>
Hudobný večer pod holým nebom...
5️⃣ Preklad a RSS feed v angličtine (EN)
EN feed sa nevytvára priamo z FB, ale zo SK RSS feedu.
Postup:
Načítať SK RSS feed
Pre každý <item>:
preložiť title
preložiť description
zachovať dátumy, GUID, URL
Výstup → samostatný RSS feed (EN)
Preklad:
automatický preklad (DeepL / GPT / MT engine)
cache prekladov (prekladať len zmeny)
vlastný slovník (námestie → square, dom kultúry → cultural centre)
6️⃣ Aktualizačný cyklus
Odporúčaný harmonogram:
zber FB dát: každé 2–4 hodiny
normalizácia + SK RSS: po každom zbere
EN preklad: len pri zmene obsahu
Logovať:
nové / zmenené / zrušené podujatia
chyby zdrojov
7. Celkový flow
Copy code

FB stránky

Zber dát (API / scraping)

Normalizácia (Unified Event Model)

RSS feed (SK)

Preklad

RSS feed (EN)
Som komunikativny a aj velmi priateľský, moja znalosť anglického jazyka a viem používať AI v moj prospechAko mladý študent elektrotechnickej školy si myslím ze som ten správny kandidat hlavne z mojej skusenosti z angličtiny (prezentoval som školu v okresnom kole) a hlavne kvôli tomu že viem používať AI. Bez problemov by som sa učil používať aj iné AI ktoré by firma potrebovala a vždy by som vyhovel.
68
Stredná priemyselná škola technická / informačné a sieťové technológie Tuke Košice/ informatika 22Áno602026 bakalára Spišská Nová Vesdohovorím sa/odborné texty čítam bez problémov40–60160Open claw--https://ai4sk-web.netlify.app/, zatiaľ návrh pre ai4sk s implementáciou llm openain rag chatbot. Čisto vibecoding Nie Už spomenutý projekt. Pipiline s AI extrakciou Monitorovanie zdrojov, extrakcia dat, štandardizácia formátu, generovanie rss feedu, preklad do anglictinySilne by som povedal šikovnosť používať AI. Slabosť pouzivanie ai v každej možnej úlohe na uľahčenie. Od začiatku čo funguje ai tvorím, učím sa a používam ho neustále. Dokážem určite veľa úloh spraviť vďaka správnemu promptovaniu a implementovaniu.
69
Karola Adlera 5, Počítačové systémy-25Nie70-Bratislavakomunikujem bez problémov200200Gemini, dáva použiteľný obash s jednoduchšími promptami ako ostatné llm ktoré som skúšalNie, iba osobné využitie hlavne pri písaní lua Nesledujem trendy s AI.Kópie mobilných videohier v C#, random sql learning projekty, lua scripty do hier Nie.WoW (videohra) API pri písaní vlastných addonov do hryPre ceny by som hladal stringy textu, ktoré obsahujú čísla a označenie alebo meno meny
Pre zlavy by som hladal stringy textu ktoré obsahujú čísla a % alebo slovo zľava a preklad v akomkoľvek jazyku by som fungoval
Použil by som nejaký public facebook scraper extension ktorým by som sledoval nejaké konkrétne fb stránky
upratal dáta zo scaperu do čistejšej formy s relevantnými informáciami (ceny/dátumy/zľavy/miesto/čas..)
napísal script na rss
silná napr. dostupnosť (pracujem z domu)
slabá napr. nováčik v turizme (nemám moc prehľad o relevantných agentúrach a pod.)
Už mám skúsenosti s hraním sa promptami, kódy ktoré cez to produkujem mi fungujú a mám basic coding understanding aby som vedel upraviť chyby ktoré ai robí
70
Kazan Federal University, Asian StudiesEtnológia a kultúrna antropológia, Filozofická fakulta UK24Áno802027Bratislavaexpert / tlmočenie2020Najviac ma nadchol OpenAI o1 a jeho schopnosť pracovať s komplexným kontextom. Ako antropologičku ma fascinuje, ako tieto modely dokážu dekonštruovať kultúrne kódy a pomáhať pri world-buildingu. Mám skúsenosti s produkciou viac ako 90 video projektov. Hoci išlo o kreatívnu prácu, zahŕňala technickú optimalizáciu metadát, SEO a analýzu algoritmov platforiem. Pri tvorbe som aktívne využívala AI nástroje na generovanie vizuálov a automatizáciu prípravy skriptov, čo mi umožnilo pracovať ako samostatná jednotkaSledujem primárne zahraničné zdroje ako The Rundown AI, Ben’s Bites a diskusie na Reddit. Pravidelne sledujem technické novinky na YouTube, čo mi vďaka C2 angličtine nerobí problémMojím najväčším projektom je vybudovanie workflow pre produkciu 90+ edukačných/naratívnych videí. Problémom bola efektivita pri spracovaní veľkého množstva kultúrnych dát. Použila som kombináciu AI pre rešerš, strihové softvéry (Premiere Pro) a optimalizačné nástroje pre YouTube Studio. Výsledkom bola stabilná produkcia s vysokým dosahom bez externého tímu.Mám základné skúsenosti s platformami ako Zapier a Make, ktoré som skúmala v rámci zefektívnenia distribúcie obsahu. Pri mojich 90+ projektoch som sa sústredila na automatizáciu spracovania metadát a SEO optimalizáciu. Hoci som n8n zatiaľ nevyužívala na komplexné firemné procesy, vďaka technickému backgroundu z video produkcie a správy sociálnych sietí rozumiem logike prepojenia rôznych modulov (trigger – action) a som schopná sa s n8n rýchlo naučiť pracovať podľa dokumentácie.S API som pracovala primárne v rámci využívania AI nástrojov a analytických platforiem pre správu obsahu. Išlo o integráciu LLM modelov na generovanie a analýzu skriptov pre moje video projekty. Rozumiem princípu, ako API prepojenia fungujú (napr. prenos dát medzi GPT-4 a externými databázami) a viem, ako tieto spojenia využiť na štruktúrovanie neštruktúrovaných dát, čo je kľúčové pre efektivitu práce, ktorú hľadáte.Navrhla by som automatizovaný workflow (napr. v n8n), ktorý by fungoval nasledovne:

Zber: Robot sleduje prichádzajúce e-maily a ukladá ich textový obsah.

Spracovanie (AI): Text sa odošle cez API do LLM (napr. Claude 3.5 alebo GPT-4o) so špecifickým promptom: ‚Extrahuje z tohto textu cenu, typ pobytu a výšku zľavy. Výstup uveď striktne vo formáte JSON.‘

Validácia: Jednoduchý skript skontroluje, či sú polia vyplnené a či je cena číselná hodnota.

Zápis: Ak sú dáta v poriadku, automaticky sa zapíšu do firemnej databázy alebo CRM. Týmto sa odstráni manuálne prepisovanie a chybovosť
Môj navrhovaný workflow:

Monitorovanie: Použitie nástroja ako Apify alebo Make/n8n (s modulom pre sledovanie FB stránok) na extrakciu textov z príspevkov o podujatiach.

Uniformita: LLM modul spracuje surový text a pretransformuje ho do jednotnej štruktúry (Názov, Dátum, Miesto, Popis).
3. Lokalizácia: Tento štruktúrovaný feed preženiem cez DeepL API alebo LLM na preklad do angličtiny (vďaka mojej C2 angličtine viem tento proces precízne korigovať).

Distribúcia: Výstup sa sformátuje do RSS XML, ktorý môže byť priamo konzumovaný vaším webom.
Silné stránky: Vysoká miera samostatnosti a self-managementu (overená pri 90+ projektoch) , schopnosť rýchlo absorbovať anglickú technickú dokumentáciu vďaka úrovni C2 a analytické myslenie antropológa pri riešení problémov.

Slabé stránky: Občasný perfekcionizmus pri ladení detailov, čo však efektívne riešim práve nastavovaním automatizovaných procesov, aby som nestrácala čas rutinou.
Pretože nespĺňam len technické požiadavky, ale prinášam aj kultúrny a analytický vhľad. Ako antropologička viem, ako ľudia pracujú s informáciami, a ako tvorca obsahu viem, ako technológiu prakticky využiť na dosiahnutie výsledkov. Moja kombinácia plynulej angličtiny (C2) a schopnosti samostatne sa učiť nové AI nástroje bez potreby in-house IT podpory presne zodpovedá vašim potrebám pre túto rolu
71
Technická univerzita v KošiciachFakulta elektrotechniky a informatiky, Inteligentné systémy20Áno110002026Košicedohovorím sa/odborné texty čítam bez problémov80120GhostGPT je nástroj na absolvovanie pohovorov, ktorý rozumie otázkam, ktoré kladie personalista, a tomu, čo sa zobrazuje na obrazovke v reálnom čase. Hlavnou výhodou je, že okrem vás ho nikto iný nemôže vidieť, ani keď zdieľate obrazovku.Pracoval som na mnohých projektoch v tíme súvisiacich s vývojom umelej inteligencie (klasifikácia objektov, detekcia objektov a segmentácia). Preto sa dokážem rýchlo zorientovať v štruktúre projektov a neurónových sietí a pracovať s nimi. Momentálne pracujem na vylepšení zložitých Dachboardov v Grafane s cieľom zlepšiť prácu zamestnancov firmy BSH.Teraz používam hlavne Redit, Xcom a rôzne fóra s článkami o neurónových sieťach.Vyhľadávanie objektov (v rámci cestnej premávky) a vzdialenosti od nich v reálnom čase. Pre projekt bola použitá iba jedna kamera.
Pre projekt som použil dva AI YOLOv8 (detekcia objektov) a MiDaS (vzdialenosť).
Hlavný problém je v MiDaS. Nevyhodnocuje výsledky v skutočných jednotkách merania. Poskytuje mapu hĺbky od 0,00 do 1,00. A premeniť to na skutočné jednotky merania bolo veľmi zložité.
V konečnom dôsledku sa podarilo vytvoriť dosť presný nástroj, ktorý by sa dal použiť na základné autonómne riadenie s minimálnymi nákladmi na elektroniku.
Nepracoval som s týmito platformami, ale niečo podobné som videl v rámci robotiky (ROS2).Zaujímavosťou je, že som vytvoril jednoduchého AI asistenta v telegrame. Na to som použil GPT API a Telegram API.Navrhujem automatizovaný workflow ktory zachytí e-mail, LLM (GPT-4) pomocou funkcie Structured Output extrahuje cenu a typ zľavy do formátu JSON a následne ich cez API zapíše priamo do databázy RelaxosNavrhujem workflow na automatický scraping FB podujatí → Make.com na spracovanie textu pomocou GPT-4o do jednotného formátu → integrácia s Airtable/RSS.app pre tvorbu primárneho feedu. Anglickú verziu vytvorí paralelný modul v Make.com, ktorý cez DeepL API preloží obsah pri zachovaní pôvodnej XML štruktúry.Silné stránky:
Dokážem nájsť riešenie úlohy, ktoré nie je na prvý pohľad zrejmé.
Schopnosť pracovať s rôznymi platformami.
Rýchlo sa učím nové veci.
Dokážem nájsť spoločnú reč s každým človekom.
Som tímový hráč.
Slabé stránky:
Takmer som nepracoval na reálnych projektoch.
Mám rád optimalizačné procesy a verím, že dokážem nájsť optimálne riešenie pre mnohé situácie.
72
Univerzita Konštantína Filozofa v NitreAplikovana Informatika20Áno100002026Nitradohovorím sa/odborné texty čítam bez problémovMyslím si že každý deň môžem pracovať približne 4-5 hodín.8Za posledný mesiac myslim ze to Kling predtým som tomu nevenoval pozornosť, ale v poslednej mesiac je to doslova všade, možno som si to len nevšimolNemám, skúsenosti len s vlastnými projektmiNepovedal by som že to nejako aktívne sledujem skôr sa o to občas zaujímam a diskutujem o tom s kamarátmiMyslím si že najzaujímavejší projekt je ten na ktorom momentálne pracujem v rámci bakalárskej práce. Ide o webovú stránku podobnú Trustpilotu ale pre Slovensko. Zatiaľ som nemal väčšie problémy, ale myslím si, že výzva príde pri implementácii algoritmu na detekciu falošných recenzií pomocou strojového učenia a NLP. Zatiaľ mu úplne nerozumiem do hĺbky, poznám len základný princíp fungovania. Na tento projekt používam Vue, Spring Boot a Spring Security.Zatiaľ nemám praktické skúsenosti, ale rozumiem ich princípuÁno, pracoval som s API spolu s kamarátmi počas game jamu minulý rok. V hre bol npc ktorý mohol odpovedať na otázky, žartovať, komunikovať s hráčom a zadávať úlohy, ale iba v rámci herného sveta. Pracovali sme na tom spoločne takže si nie som úplne istý či by som to teraz vedel celé zopakovať sám, ale rozumiem základ.Navrhol by som algoritmus, kde systém zachytí novy email, extrahuje text z tela spravy a príloh a odošle ho do llm ktoré vráti údaje v json formáte cena, typ a td... Následne spustit skript na kontrolu údajov ak sú v poriadku, uložia cez API do db, a ak nie, záznam zostane na manuálne skontrolovanie.Systém by monitoroval vybrané fb stránky extrahoval údaje o podujatiach a zjednotil ich do jednotného formatu, z ktorého by backend generoval rss feed následne by sa popisy automaticky preložili s llm do angličtiny a vytvoril by sa aj anglický rss feed.Myslím si, že moje silné stránky sú motivácia, rýchlo sa učím, som otvorený a zodpovedný.
Moje slabé stránky sú, že moja slovenčina je niečo medzi B1/2 (v poslednej dobe sa ju snažím zlepšiť), nemám žiadne skúsenosti a že v niektoré dni môžem pracovať 6 alebo možno 7 hodín a v iné 4 kvôli párom.
Som motivovaný, rýchlo sa učím a chcem získať praktické skúsenosti. Zároveň sa chcem ďalej rozvíjať a po ukončení štúdia by som rád pokračoval v spolupráci aj dlhodobo.
73
Gymnázium Mihálya Tompu Reformovanej Kreštanskej Cirkvy v Rimavskej SoboteTechnická Univerzita v Košiciach - Fakulta elektrotechniky a informatiky/Informatika23Áno502026Jesenskéexpert / tlmočenie40 hodín40 a viac hodínClaude kvôli codinguÁno, mám, aj v mojej predošlej brigáde som používal LLM api-s na tvorbu chatbotov napríklad.Väčšinou sledujem AI firmy a ich oznamy o nových modelochOnline hra používajúca LLM, typescript, pixiJS, gpt api s RAG na generovanie máp, objektov a rozhodovanie nepriatelských charakterovNo code som veľmi nepoužíval, ale chápem ich princíp, videl som už o tom rôzne videáAno, customized gpt agent na chatbota a taktiež na hruNavrhol by som AI pipeline na automatické spracovanie e-mailov. Prichádzajúce e-maily a prílohy (PDF, Word, obrázky) by sa najprv konvertovali na text pomocou parserov a OCR. Následne by LLM model pomocou structured extraction promptu extrahoval kľúčové údaje (cena, typ zľavy, výška zľavy) do JSON formátu.
Extrahované dáta by prešli normalizáciou a validačnou logikou (napr. kontrola cien a výpočet percentuálnej zľavy). Záznamy s nízkou confidence hodnotou by sa odoslali na manuálnu kontrolu. Validované údaje by sa následne automaticky ukladali do databázy v štandardizovanej schéme.
Navrhol by som automatizovaný workflow pozostávajúci z monitoringu zdrojov, AI spracovania a generovania feedu. Systém by pravidelne sledoval Facebook stránky preddefinovaných subjektov cez Facebook Graph API alebo scraping nástroj a získaval údaje o nových podujatiach.
Získané dáta by sa spracovali pomocou AI modelu, ktorý by extrahoval a normalizoval informácie (názov, dátum, miesto, popis) do jednotnej dátovej štruktúry. Následne by sa z databázy generoval RSS feed v štandardizovanom formáte.
Pre anglickú verziu by workflow využil automatický preklad cez LLM alebo translation API, pričom by sa zachovala štruktúra dát a vytvoril paralelný EN RSS feed aktualizovaný pri každej zmene zdrojového feedu.
Silné stránky: spolupráca v tíme, schopnosť aj viesť tím, na všetko hladám riešenie kým nenájdem, nevzdám sa

Slabé stránky: Mám tendenciu venovať detailom viac času, než je niekedy potrebné, pretože sa snažím nájsť čo najlepšie riešenie. Aktívne sa však učím lepšie prioritizovať úlohy a pracovať s časovým limitom.
Myslím si, že som vhodný kandidát, pretože kombinujem analytické a technické myslenie so schopnosťou hľadať praktické riešenia a dotiahnuť ich do výsledku. Dokážem efektívne spolupracovať v tíme aj prevziať zodpovednosť za úlohy, pričom sa rýchlo učím nové nástroje a postupy. Motivuje ma zlepšovanie procesov a hľadanie spôsobov, ako pomocou automatizácie a technológií prinášať reálnu hodnotu.
74
Súkromná stredná škola Mostová - Hotelová akadémiaUniverzita Jána Sellyeho Komárno - Aplikovaná informatika Mgr.26Áno802025Dolné Salibydohovorím sa/odborné texty čítam bez problémovNeštudujemNeštudujemZaujímam sa o AI a automatizačné nástroje a rád sledujem nové trendy a novinky v tejto oblasti.Nemám predchádzajúce skúsenosti, ale som motivovaný učiť sa a rýchlo sa adaptovať na nové technológie.Som úplný začiatočník a nie som členom žiadneho diskusného fóra ani mailing listu.
Sledujem však články a novinky o AI online, napríklad blogy, portály a sociálne siete zamerané na AI a automatizáciu.
Zatiaľ som nemal vlastný projekt, ale rád experimentujem a učím sa nové nástroje, ak sa naskytne príležitosť.Nemám praktické skúsenosti, ale som ochotný a motivovaný sa naučiť používať tieto platformy.Nemám praktické skúsenosti, ale som ochotný sa naučiť a rýchlo adaptovať.Nemám praktické skúsenosti, ale mám záujem naučiť sa, ako automatizovať a štandardizovať dáta pomocou AI a workflow nástrojov.Ako úplný začiatočník by som workflow vytvoril takto:
1.Použil by som no‑code nástroj (napr. n8n alebo Make) na sledovanie Facebook stránok preddefinovaných subjektov.
2.Nástroj by automaticky získaval základné údaje o podujatiach: názov, dátum, miesto, popis.
3.Pomocou jednoduchého formátovacieho bloku by som spravil jednotný formát dát (napr. RSS feed).
4.Existujúci feed by som preložil do angličtiny pomocou AI nástroja (napr. ChatGPT alebo Deepl).
5.Workflow by som nastavil tak, aby sa pravidelne spúšťal a feed bol vždy aktuálny.
Silné stránky: rýchlo sa učím, motivovaný učiť sa nové technológie.
Slabé stránky: Slovenčinu neovládam dobre.
Som motivovaný, rýchlo sa učím a mám záujem prakticky aplikovať AI a automatizačné nástroje vo firme.
75
Dizajn a multimédiaWeb Development26Nie2502023Prievidza, Slovenskoexpert / tlmočenie100%100%Orchestrujem veci s OpenClaw, sám seba učí a vylepšuje sa - dal som mu 90% autonómiu. Ja veci iba schvaľujem. Má osobnosť, pamäť a rôzne "skills" čo ho špecificky učia napr. analyzovanie/lepšie kódovanie. Ako model používam GPT-5.2 a Kimi 2.5. Avšak mám skúsenosť aj s Claude a na PC mám nastavený stable-diffusion na generáciu obrázkov.Áno do viacerých projektov som implementoval model GPT, na preklady stránok, tvorbu farených tém.Najnovšie trendy idú cez sociálnu sieť X.https://teanote.xyz - čajový žurnál, https://shadee.danielradosa.com - live-code shader nástrojNieÁno. V podstate v každom projekte ktorý som kedy robil. Taktiež som sa to učil v škole.Z e-mailu (vrátane príloh ako PDF/Excel/obrázky) by som automaticky vytiahol text a všetko sa uloží ako jeden "case" so zdrojom pre audit. AI potom obsah klasifikuje
(či ide o akciový pobyt a koľko ponúk obsahuje) a vyextrahuje do pevnej JSON schémy kde budú polia ako cena, typ zľavy, výška zľavy, platnosť a podmienky. Ideálne aj s
citáciami úsekov, z ktorých to vzala. Následne prebehne validácia a normalizácia (mena, jednotka ceny, percento vs fixná suma vs napr. "noc zdarma"), a ak je istota
nízka, pošle sa to na rýchle manuálne schválenie. Schválené dáta sa zapíšu do databázy spolu s metadátami (confidence, verzia extraktora) a opravy z manuálneho
kroku sa používajú na priebežné zlepšovanie šablón/extraktora pre jednotlivé hotely.
AI by som zadal: udržiavaš zoznam FB stránok/organizátorov, ktoré CRON job (v pravidelných intervaloch) prechádza a sťahuje z nich nové podujatia (názov, dátum/čas, miesto, popis, link, obrázok). Z týchto dát vyčistíš a normalizuješ text do jednotnej šablóny (rovnaké polia, dĺžka, štýl), odstrániš duplicity a vygeneruješ/aktualizuješ
RSS feed s konzistentnými položkami. Paralelne z už existujúceho RSS feedu preložíš a lokalizačne upravíš obsah do angličtiny (nie len doslovne, ale s rovnakou
štruktúrou a terminológiou) a publikuješ samostatný EN feed. Všetko s logovaním zdroja (odkaz na FB event) a jednoduchým manuálnym review krokom pre položky s nízkou
istotou alebo chýbajúcimi údajmi.
spolahlivosť, adaptabilita, kreativita, komunikácia - perfekcionizmus, netrpezlivosť pri pomalých procesochPretože mám aktívnu živnosť, viem ako softvér/AI funguje na pozadí, a denne ho využívam alebo implementujem. Mám za sebou reálnych klientov aj full-time pozície.
76
gymnáziumIN-AJ, pedagogická, ku.sk41Áno1502013Liptovská Osadakomunikujem bez problémov8020gpt, krita ai, gemma3tester sap abapfree ebookshttps://hekrz.eu/nievue3js frontend na txt backend v https://hekrz.eu/autoskola-free8/parsnem to cez python3, či php artisanak treba login fb jednoznačne využiť selenium frameworkrobotu vždy dokončím, rád spímsom ajťák
77
Mukachevo Secondary School No. 1.Technická univerzita v Košiciach/Fakulta elektrotechniky a informatiky/Informatika21Nie602026Kosicekomunikujem bez problémov30-40 hodín60–80 hodínGemini, pretože je to mimoriadne výkonný nástroj, ktorý možno použiť v mnohých oblastiach a navyše je jednoducho lepší ako jeho analógy na trhu AI.Áno, ako vedľajšiu prácu som mal freelancerské zákazky a v mnohých z nich som používal metódu „vibecoding“, ale aj bez toho mám bohatú zásobu vlastných vedomostí. Ako zdroje na sledovanie trendov v oblasti umelej inteligencie využívam sociálne siete a internet.V súčasnosti je mojím najzaujímavejším projektom webová stránka na overovanie vedomostí na báze umelej inteligencie, ktorá overuje správnosť odpovedí na základe kontextu odpovede. Pre back-end som použil kombináciu Python a jeho framework Flask a React pre front-end, a umelú inteligenciu na overovanie odpovedí používateľov som použil Gemini API.Áno, WordPress na vytváranie vizitkových webových stránokÁno, Gemini API vo webovom projekte aplikácia na overovanie vedomostí na báze umelej inteligenciePomocou Make odfiltrovať listy od hotelov, potom pomocou nejakej AI API v textoch tohto listu nájsť hlavné informácie, ktoré nás zaujímajú: názov hotela, cena, typ hotela, zľavy atď. Potom tieto údaje preložiť do správneho formátu pre zápis do databázy a zapísať tieto údaje do databázy.Scraping Facebook stránok, pomocou Make odosielanie do rôznych API (na čistenie formátu a preklad do angličtiny), zápis údajov do databázy, vytváranie odkazov Silné stránky: Motivácia, rýchle učenie sa nových vecí, túžba vyskúšať niečo nové, komunikácia a práca v tíme.
Slabé stránky: Vyhorenie, vyhýbanie sa konfliktom (v niektorých situáciách sú potrebné na nájdenie nových pohľadov na konkrétnu situáciu).
Som dobrý kandidát, pretože mám skúsenosti s vývojom a mohol by som sa ľahko zapojiť do tímu.Študent
78
Stredne škola obchodu a služieb / kuchár Nemám VŠ 28Áno461481310.Martindohovorím sa/odborné texty čítam bez problémovzalezi od dohodyzalezi od dohodyOpenclaw momentalne ho testujem lokálne na Mac mini je to zaujímavá novinka a myslím si že to ma potenciál a automatizácia cez to. Momentalne sledujem AI automatizaciu ale nemám žíadny projekt na ktorom by som to mohol vyskúšať.NemámYoutube a research cez AIJedine openclaw je projekt na ktorom sa teraz učímmomentalne nieano pracujem momentalne s api pri openclaw api od open ai , moonshot kimi2.5, elevenlabs, nano banána, dal by som dostupne dáta relaxox a podklady opísal by som mu problém aký je nech nájde riešenie a aká potrebuje doplniť ešte nejaké informácie nech mi položí otázky. Popravde na toto by som použil AI. Takže odpoved tu nejdem dávať Silne stránky: práca pod.tlakom, chuť sa učiť a skúšať nové veci,
Slabé stránky: bohužiaľ to neviem povedať.
Momentalne nemám žiadnu prácu lebo som sa vrátil po dlhej dobe zo zahraničia a robím si Digitálnu univerzitu ktorá mi uz končí a do toho sa záujmam o AI a rad by som pracoval na nejakom projekte kde by som ju mohol aplikovaťFreelancer
79
Spojena SŠ / Mechanik ekektroniknestudujem43Nie250nemám všDetvaniečo rozumiem/čítam so slovníkomneštudujemnemám prázdninyžiadnypracujem s n8n, s gpt , claude code https://www.chatbuilders.cz/napojenie gpt na prestashopn8n prepojenie shopu,pri robeni chat bota na webvyextrahovať text prehnať cez ai a to isté aj s prílohami asi problémi s prekladom zabezpečiť neprekladanie turistických destinácii do angličtiny ,nekonzistencia textov na fb stránkach použiť nejakú normalizáciu to isté aj formátu dátumu a času podujatí.Nebojím sa výziev aj pri veciach s ktorými som sa ešte nestretol.Nebavi ma robiť na prjektoch v ktorých nevidím zmysel.Lebo neponúkate nič zaujímave a aj tak som sa prihlásil a ešte aj preto lebo som zvládol vypnúť eset kedže váš link je podozrivý :)Živnostník
80
SPŠ Stavebná , Zeleznicné stavbyŽU Žilina Strojárenská technológia60Nie1501988Vranov nad Topľoudohovorím sa/odborné texty čítam bez problémov200fullSonet 4.6 model Claude od AnthropicuVztvorenie troch aplikacii pomocou Ai plus štúdia použiteLnosti AI pomocou CM frameworku - viem presne čo AI je a čo nie je, kde má silné stránky a kde slabé miesta a ako s LLM komunikovať aby prinašal želane a meratelne vysledky.Metodiku zašlem na požiadanie.Od roku 2024 so OpenAI Comunity member od roku 2025 som PiecesAI Platform Member.NAjzaujímavejší projekt je študia ako CM meria percento chybovosti u jazykových modulov AI typu Copilot a github/Copilot. Problem bol v v postupe a metodach zadavania dotazov k AI . Copilot generuje odpovede na zaklade štatistických váh s odchylkou. Tuto odchylku uzivatel nepozna takze nevie nakolko presne odpovede dostane ked vobec presné dostane. Pri merani chyby rastli geometricky. Co to pre programatorsku prax znamená. Pri jednoduchych dotazoch stroj- teda AI generuje vysledok s urcitou chybou ktoru ak si user nevsimne- pre casovy tlak alebo unavu a pod sa tato chyba imlementuje do dalsich krokov developmentu Vo finale testovanie ukaze neintegritu lebo chyba sa skryte prenasa do vsetkych castí projektu. Projekt treba velmi pracne testovat a hladat skryte chyby alebo uplne prepracovat z nuly. Pri jednotlivych monetizovanych verziach AI je to dane od 8 do 15 percent cybovosti pricom 8 percent na Enterpise riešenie a 15 percent ma free -tier. Experiment prebiehal na modeli Copilot Pro plus. Na poziadanie mozem zaslat vo formate LATEX.Poznam ale prakticke skusenosti nemamNie, urcene pre korporatnu sféru Na to nemam finančne zdroje.Najprv treba navrhnuť automaticaciu teda infrastrukturu okolo Ai a potom zbierať data Ale to nie je ta najťažšia casť LLM su navhnute na obrovske objemy dat a teda e-mailova komunikacia čiste teoreticky/inak je to regulovany prvok- pozor na súdne sporyú by musela byť zbierana kontunualne z milionov emailov a ukladana do datacentra aby LLM mal dostatok trenovacich dat. Prečo? Malicky objem dat - velka halucunacia, vzssi objem dat mensia halucinacia BIG data halucinacia na urovny 5-10 percent.NA to sa spytajte FB ci Vám to dovolí. A ak áno, má svoje nástroje ktoré na to môžete použiť . Sú síce platené ale pre firmu ako je Vaša je to investícia, ktorá sa oplatí a návratnosť bude rýchla a efektivita vysoká.Som skor analytický ako citový typ .Netvrdim , že som vhodný kandidát, iba mám dostatok času. Kto chce može moj cas využiť samozrejme za protihodnotu.inv.dôchodca
81
8 ročné informatické gymnáziumNeštudujem ešte VŠ19Nie2202031Dolný Kubínkomunikujem bez problémov6545Za posledný mesiac ma najviac nadchol multimodálny agent z rodiny GPT-4o/5-style systémov (napr. ten, ktorý zvláda plynulo spájať text, obrázky a krátke videá v jednej konverzácii).
🌟 Prečo práve tento nástroj?
Skutočne multimodálny vstup: Dokáže porozumieť kombinácii textu + obrázkov + jednoduchých vizuálnych náčrtov, čo výrazne zlepšuje praktické použitie (napr. analýza screenshotov, diagramov, UI rozhraní).
Viacúčelovosť: Nielen odpovedá na otázky, ale vie robiť aj:
vizuálne debugovanie (napr. chyby UI),
sumarizovať obsah z PDF/obrázkov,
generovať návrhy UX podľa vizuálnych inputov.
Výrazne zlepšená kontextová pamäť: Pamätá si dlhšie diskusie aj cez kombinované médiá bez potreby neustáleho pripomínania detailov.
Lepšie generovanie obsahu pri menšom promptovaní: Menej „prompt engineeringu“ a viac prirodzeného písania.
🧠 Čo to znamená v praxi?
Pre praktické aplikácie – napríklad automatizované spracovanie emailov, extrakcia informácií či interpretácia vizuálnych vstupov – je tento typ modelu ďalší krok smerom k tomu, že AI vie fungovať ako univerzálny asistent pre ľudské úlohy, nielen ako jazykový generátor.
NieNieRočníková práca, použil som programovací jazyk Python, výsledok bol veľmi dobrý.NieNie 1️⃣ Zber dát
Centrálna e-mailová schránka (napr. akcie@relaxos.sk)
Automatické spracovanie cez nástroj typu Make / Zapier / vlastný backend
Ukladanie príloh a tela e-mailu do spracovateľského frontu
2️⃣ Extrakcia informácií (AI vrstva)
Použitie LLM modelu alebo kombinácie:
OCR (ak ide o sken/PDF)
NLP model na extrakciu štruktúrovaných dát
Definoval by som cieľový JSON formát napr.:
{
"hotel_nazov": "",
"lokalita": "",
"nazov_akcie": "",
"popis": "",
"typ_zlavy": "",
"percento_zlavy": "",
"platnost_od": "",
"platnost_do": "",
"obmedzenia": "",
"kontakt": ""
}
Model by bol promptovaný striktne na návrat validného JSON.
3️⃣ Validácia
Kontrola povinných polí
Normalizácia dátumov
Kontrola duplicít
Confidence score (nízka istota → manuálna kontrola)
4️⃣ Distribúcia
Automatický zápis do katalógu (CMS / databáza)
Vytvorenie interného notifikačného e-mailu vybraným zamestnancom
Možnosť Slack / Teams notifikácie
Voliteľne vytvorenie návrhu marketingového postu
5️⃣ Logovanie a audit
Archivácia pôvodného e-mailu
Evidencia zásahov človeka
Tréning dát pre postupné zlepšovanie modelu
Výhody riešenia
Škálovateľnosť
Konzistentný dátový model
Zníženie manuálnej práce
Možnosť ďalšej analytiky (najčastejšie typy zliav, sezónnosť)
1️⃣ Monitoring zdrojov
Zoznam FB stránok subjektov
Použitie:
Facebook Graph API (ak je dostupné)
alebo scraping nástroj (v súlade s podmienkami používania)
Automatické denné sťahovanie:
názov podujatia
dátum
miesto
popis
link
obrázok
2️⃣ Normalizácia dát
Každé podujatie sa transformuje do jednotného formátu:
<item>
<title></title>
<description></description>
<location></location>
<start_date></start_date>
<end_date></end_date>
<organizer></organizer>
<link></link>
</item>
AI môže:
skracovať príliš dlhé popisy
čistiť emoji
dopĺňať štruktúru (napr. extrahovať miesto z textu)
3️⃣ Generovanie RSS feedu
Backend skript generujúci XML feed
Cache (napr. 1× denne)
4️⃣ Anglická verzia feedu
Automatický preklad cez LLM alebo DeepL API
Zachovanie rovnakého ID položiek
Ukladanie do samostatného feedu (/rss-en.xml)
Potenciálne problémy a riešenia
Problém Riešenie
Obmedzenia FB API Oficiálne API, súhlas subjektov
Nekonzistentné dáta AI normalizácia + validačné pravidlá
Duplicitné podujatia Hash podľa názvu+dátumu+miesta
Zlé preklady Glossár vlastných názvov
Chýbajúce miesto/dátum Označiť ako „vyžaduje kontrolu“
GDPR (osobné údaje) Filtrovanie citlivých údajov
Silné stránky
Analytické myslenie
Schopnosť prepájať technológiu s biznis cieľom
Systematickosť a dôraz na automatizáciu
Rýchle učenie sa nových nástrojov
Schopnosť navrhovať škálovateľné riešenia
Slabé stránky
Tendencia hľadať optimálne riešenie (niekedy dlhšie rozhodovanie)
Vysoké nároky na kvalitu výstupu (učím sa lepšie prioritizovať)
Myslím si, že som vhodný kandidát, pretože:
Rozumiem práci s dátami aj praktickej automatizácii
Dokážem premýšľať procesne (od vstupu po distribúciu hodnoty)
Viem pracovať s AI nielen ako používateľ, ale ako navrhovateľ workflow
Som orientovaný na efektivitu a merateľný výsledok
Neberiem AI ako „hračku“, ale ako nástroj na znižovanie nákladov a zvyšovanie kvality
Zároveň sa snažím myslieť strategicky – nielen vyriešiť úlohu, ale nastaviť systém, ktorý bude fungovať dlhodobo.
Študent
82
Stredná odborná škola techniky a remesiel Kráľovský Chlmec - LogistikaNie som študent VS21Áno70Nie some študent VSVeľké Kapušanykomunikujem bez problémovXXAgentiNieTikTok a rôzne webstránky ktoré my odporučí GoogleVlastný web, využil som tam SQL databázy, nastavil som si tam newsletter, urobil som aby si ľudia mohli prispôsobiť svoje profily ako chcú a ešte pár menších vecí. Mal som menšie problémy s nastavení svojej databázy a ukladaním dát ale rýchlo som prišiel na chybu a opravil ju. A nakoniec všetko vyšlo a fungovalo ako má.Nie ale strašne rád by som si ich vyskúšal a niečo nové prinaučilNanešťastie ešte nie ale tomuto by som sa taktiež rád prinaučil.Hoci som v praxi doteraz low-code nástroje ani LLM modely (ako GPT či Gemini) nevyužíval, vnímam v nich obrovský potenciál pre zefektívnenie procesov v Relaxos. Po mojom prieskume moderných prístupov by som navrhol proces, ktorý by som sa v rámci tejto pozície rád naučil implementovať:
Automatizovaný zber dát: Moja vízia je využiť platformu ako Make.com alebo Zapier. Tie slúžia ako „lepidlo“ medzi aplikáciami. Nastavil by som systém tak, aby automaticky zachytil každý prichádzajúci e-mail od hotela a poslal jeho obsah na analýzu.
Spracovanie pomocou AI: Keďže e-maily od hotelov sú neštruktúrované (každý píše inak), využil by som silu LLM modelov. Tie fungujú ako inteligentný čítač, ktorý z textu vytiahne presné dáta (zľava, termín, typ izby) a vráti ich v čistom, tabuľkovom formáte.
Distribúcia: Takto spracované dáta by následne automatizácia odoslala priamo do vášho katalógu a zároveň by notifikovala zodpovedných kolegov (napr. cez Slack alebo e-mail), že nová ponuka je pripravená na schválenie.
Toto riešenie ma fascinuje svojou rýchlosťou a mojou prioritou by bolo čo najskôr si osvojiť prácu s týmito nástrojmi, aby som tento teoretický model premenil na funkčnú realitu, ktorá vám ušetrí hodiny manuálnej práce.
Hoci som doposiaľ v praxi nevytváral automatizované RSS feedy ani nepracoval s LLM, tento projekt vnímam ako ideálnu príležitosť naučiť sa pracovať s nástrojmi, ktoré dokážu prepojiť sociálne siete s automatizovaným obsahom. Môj navrhovaný workflow by vyzeral takto:
Navrhovaný workflow
Monitoring FB stránok: Keďže Facebook priamo nepovoľuje jednoduchý export, využil by som nástroje ako Apify alebo PhantomBuster. Tieto platformy dokážu pravidelne „prechádzať“ (scrapovať) udalosti na vopred definovaných profiloch a získavať z nich surové dáta.
Zjednotenie formátu (AI spracovanie): Získané dáta by som cez automatizačnú platformu Make.com poslal do ChatGPT (GPT-4o). Model by dostal inštrukciu, aby neusporiadaný popis udalosti upratal do jednotnej štruktúry (napr. Názov, Dátum, Miesto, Stručný popis).
Preklad a tvorba feedu: V tom istom kroku by AI vytvorila anglickú verziu textu. Následne by nástroj v rámci Make.com vygeneroval výsledný RSS feed (napr. cez modul RSS alebo zápis do XML súboru), ktorý by sa automaticky aktualizoval pri každom novom podujatí.
Potenciálne problémy a ich riešenie
Zmeny na strane Facebooku: Facebook často mení kód a blokuje automatizované nástroje. Riešenie: Používanie overených a udržiavaných scraperov (ako spomínaný Apify), ktoré sa vedia rýchlo prispôsobiť zmenám.
Nekonzistentná kvalita zdrojov: Niektoré hotely píšu o udalostiach v skratkách alebo neúplne. Riešenie: Nastavenie AI promptu tak, aby v prípade chýbajúcich údajov udalosti buď označil za neúplné, alebo sa pokúsil chýbajúci kontext logicky doplniť.
Kontext pri preklade: Strojový preklad môže niekedy stratiť lokálny význam. Riešenie: Využitie modernej AI (nie len bežného prekladača), ktorá rozumie cestovnému ruchu a dokáže preložiť špecifické názvy podujatí prirodzenejšie.
Implementácia tohto riešenia by pre mňa bola skvelou školou v oblasti prepájania externých dát s AI a som pripravený si tieto nástroje rýchlo osvojiť.
Zodpovednosť, Adaptibilita, Orientácia na výsledky, Menej skúseností s verejným vystupovanímPretože do tímu Relaxos prinesiem kombináciu vysokej zodpovednosti a modernej adaptability. Hoci som nováčikom v oblasti AI a low-code nástrojov, moje doterajšie návrhy na automatizáciu spracovania e-mailov a tvorbu turistického kalendára ukazujú, že dokážem premýšľať procesne a hľadať spôsoby, ako firme ušetriť čas aj zdroje.
Moja orientácia na výsledky znamená, že sa nezastavím pri identifikácii problému, ale aktívne hľadám nástroje (ako Make, Apify či LLM), ktoré ho vyriešia. Som pripravený tieto technológie si bleskovo osvojiť a okamžite ich nasadiť do praxe, aby náš katalóg rástol rýchlejšie, presnejšie a s minimálnym podielom manuálnej práce. Chcem byť tým článkom tímu, ktorý posunie efektivitu Relaxos na novú úroveň.
Nezamestnaný
83
TUKEGeodézia a kataster nehnuteľností23Nie80Už som po skole, momentálne pracujem na zamestnaní v odbore GIS, hľadala dačo mimo robotyKošicedohovorím sa/odborné texty čítam bez problémovv mojom prípade po robote, tyzden - cca 10-15 hod, teoreticky aj viac- ChatGPT (mám aj predplatné, pretože veľa vecí riešim cez neho aj v robote, aj mimo roboty).
Codex používam na vlastné účely — stránky alebo mini-projekty(napr. vytvarala Spanding Tracker).
Perplexity - tiež predplatne, hlavne kvôli dostupnému výberu modelov. Na texty zvyčajne používam Gemini a na kódovanie Claude.

Samozrejme, generovala som aj obrázky cez NanoBanana, stránky (ktoré potom sama dotiahla) cez v0 by Vercel a podobne.
Tým, že som GIS analytik, potrebovala som aj skripty v Pythone. Samozrejme, vibecoding mi v tom veľmi pomáha. Prácu s databázami som sa tiež naučila aj vďaka AI. Každý deň v mojej práci je nejako prepojený s AI.https://www.therundown.ai/Solvio.sk - kostra stránky vytvorená pomocou AI, ale detaily som si dotiahla sama.
Spending Tracker - zatiaľ len projekt (nepublikovaný), ale pracujem na ňom.
Zatiaľ nemám praktické skúsenosti s low-code/no-code platformami . Som typ človeka, ktorý sa veľmi rýchlo učí😅 nové veci a baví ma osvojovať si nové zručnosti, takže s tým nemám problém - viem sa do toho rýchlo dostať a začať ich využívať v robote.jedine pripajala skript python z webhook diskorduUprimne – tento návrh som si nechala spísať cez ChatGPT, ale viem presne, ako by som to navrhla a implementovala.

Príde e-mail od hotela
Správu by som zachytila cez promo inbox a spracovanie by som riešila automatizáciou v Pythone: uložiť obsah e-mailu aj prílohy (PDF/DOCX), pridať metadáta (odosielateľ, dátum) a priradiť to ku konkrétnemu hotelu (napr. podľa domény alebo ID v databáze).

AI vytiahne kľúčové údaje zo správy
Z textu e-mailu (a prípadne z príloh) by AI vytiahla štruktúrované dáta, hlavne: názov akcie/pobytu, výšku zľavy, platnosť (od–do) + prípadne booking obdobie, a podmienky (min. počet nocí, typ izby, strava, promo kód).

Kontrola správnosti (jednoduché pravidlá)
Následne by som spravila validáciu – napr. či dávajú zmysel dátumy, či je zľava v správnom formáte a či nechýbajú povinné polia. Ak by bolo niečo nejasné, systém to označí na rýchlu kontrolu človekom.

Zapísanie do katalógu (DB)
Keď sú dáta OK (alebo po schválení), ponuka sa zapíše/aktualizuje v katalógu v databáze. Keďže pracujem denne s PostgreSQL, toto by bol pre mňa relatívne jednoduchý krok.

Rozposlanie informácie zamestnancom
Nakoniec by sa automaticky rozposlala notifikácia vybraným ľuďom (produkt/sales/call centrum) – buď e-mailom alebo do Slack/Teams. Aj to sa dá pohodlne riešiť Python skriptom (napr. webhook/API), ktorý po vložení novej ponuky pošle stručné zhrnutie a link.
- AI používam aj v práci a fakt ma baví skúšať nové veci. Preto ma vaša ponuka hneď chytila -je to presne typ projektu, ktorému sa viem venovať aj vo voľnom čase a posúvať ho dopredu.Nooo, ja mám rada nové veci, jak som už spomínala, ma veľmi bavia nové technológie, rada ich skúšam. 😊Takže som celkom komunikabilná, nebojím sa problémov a som pripravená ich riešiť. Chcem mať robotu aj vo voľnom čase :D, pretože sa mi páči zlepšovať sa v tých veciach, ktoré ma bavia.zamestnanie, ale hľadám aj mimo roboty
84
Gymnázium Antona Bernoláka v Námestove/Matematika,InformatikaSTU/FEI/Aplikovaná Informatika22Áno5,502027Oravská Jasenicakomunikujem bez problémov80160Computer Use Tool od Claude, príde mi to, ako pokrok a myslím si, že to má potenciál do budúcna veľmi zefektívniť prácu.Nie priamopoužívam YT napr. kanál FireshipMôj doteraz najzaujímavejší (mikro)projekt je roommate finder web app, ktorú som robil ako bakalárku. V Bratislave som zažil problém s hľadaním ubytovania, preto som si zvolil spraviť webstránku, ktorá to rieši.
Je to full-stack web aplikácia, ktorá pomáha používateľom nájsť kompatibilných spolubývajúcich alebo izby na prenájom podľa preferencií, lokality a životného štýlu. Projekt som vyvíjal s dôrazom na responzívny dizajn, modernú architektúru a serverless deployment.
Použil som Nuxt 3, Firebase (Auth + databáza), Node.js/Cloud Functions a Tailwind CSS. Výsledkom je funkčný MVP/prototyp na rýchle filtrovanie a matchovanie vhodných ľudí a ponúk.
NieÁno, s REST API najmä v škole pri vývoji webstránok a Firebase Admin SDK API pri bakalárkeFúha, nemám s týmto skúsenosti bohužiaľ-Silné stránky:
-nevzdávam sa
-aj keď mi niečo nejde, verím, že sa to dokážem naučiť
-som cieľavedomý
-mám rád výzvy
-myslím si, že som celkom komunikatívny
-som disciplinovaný
-bench press

Slabé stránky:
-niekedy mi trvá dlhšie, kým niečo pochopím
-drepy
-niekedy sa podceňujem a niekedy aj preceňujem
Myslím si, že som schopný sa rýchlo adaptovať na prácu s novými technológiami a som ochotný absolvovať skušobnú dobu a ukázať, čo viem/neviemŠtudent
85
SPŠE Hálova, Programovanie digitálnych technológií-19Áno70-Senecexpert / tlmočenie-40-50 hodín / týždeňClaude (cowork, code)- pretože som prestúpil z ChatGPT a začal som ho naplno využívať v developmente stránok a v decision making. Je to go to AI, na ktoré sa vždy obrátim. Pri akej koľvek práci je Claude prvý nástroj, kde začína hociaký projekt.
Dokonca Claude Code pomaly nahrádza aj Cursor v mojom stacku, ale zatiaľ je to v testovacej fáze :D.
hm: Taktiež testujem Open Claw a niektoré tasks to vie robiť za mňa, ale primárne to využívam na motivovanie s prestaním zlozvyku.
Áno -development aplikácií, webstránok a automatizácie, ktoré mi urýchlujú čas a dokážem vďaka tomu rýchlejšie odovzdať projekt. Primárne X (twitter) a reddit.

https://www.reddit.com/r/artificial/
https://www.reddit.com/r/ArtificialInteligence/
Keď mám byť úprimný, tak najzaujímavejší projekt je:
https://www.merge.build/

Problem: Chýba stránka so správnym funnelom a následne na odkázanie na formulár. Primárne táto stránka je určená na získavanie leads.

Stack:
Next.Js + Tailwind
Resend
Framer Motion
Supabase
Tally
Zapier

Analytics:
Microsoft Clarity — heatmapy, session recordings
CookieYes — cookie consent (GDPR)
Google Analytics / Vercel Analytics — traffic
Mám skúsenosti so Zapier-om.
Využil som Zapier na to, aby keď mi prijde email, dokážem ho vyfiltrovať. Skúšal som na študentskom projekte newsletter + funnel, po vyplnení dotazníku.
Resend API - emails
Supabase API - databáza, RLS, auth
Anthropic API / OpenAI API - cursor integration, na hackathone custom chatbot

Resend na automatizáciu emailových notifikácií pri (klientovy príde email z custom formuláru), Supabase na správu dát a autentifikáciu.
Budem písať bez diakritiky.


Najprv by som si precital 2-3 vzorove emaily od hotelov, aby som pochopil ako vyzeraju vstupy, ake formaty, ake odchylky, co sa opakuje.

Nasledne by som si v hlave nacrtol architektura: AI bude musiet identifikovat klucove informacie (zlava, termin, hotel, podmienky) podla kriterií, ktore dostanem od zadavatela.

Po kratkej analyze by som isiel do promptovania, idealne Opus na uvodny briefing, kde by som vysvetlil cely problem a prediskutoval pristup.
Z toho by vznikol konkretny plan.

Ten plan by som nasledne dal do Claude Code v plan mode, skontroloval co presne navrhuje a zacal testovat na realnych emailoch.

Paralelne by som musel navrhnnut hodnotaci system, teda kriteria, podla ktorych viem povedat ci extrakcia prebehla spravne. Bez toho sa neda spoliahlivo pracovat .

Vystup by isiel do katalogu a cez automatizaciu ako Zapier k vybranym zamestnancom
Opäť bez diakritiky.


Workflow by som postavil takto: n8n pravidelne skenuje FB stranky preddefinovanych subjektov, vytiahne udalosti, AI ich normalizuje do jednotneho formatu a vystup ide do RSS feedu.

Druhy krok je jednoduchy, ten isty feed prejde cez preklad a vznikne anglicka verzia.
Potencialne problemy ktore vidim:
FB API je obmedzene a nie vsetky stranky maju udalosti verejne pristupne. Riesenie je kombinovat API s monitoringom verejnych stranok, pripadne rucny import pre problematicke subjekty.

Rozne subjekty pisu udalosti inak, niekto da datum, niekto nie, niekto pise dlhy popis, niekto len nazov. AI normalizacia to zvladne, ale treba ju otestovat na realnych datach pred spustenim.

Preklad moze strat kontext lokalnych nazvov miest alebo podujati. Riesenie je vytvorit slovnik vynimiek ktory prekladac rešpektuje.

RSS feed treba udrzovat, stare udalosti mazat a kontrolovat duplicity ak ten isty subjekt zverejni udalost viackrat.
Silné:
- ambiciózny, sebavedomý, zvedavý

Slabé:
- občas lenivý a overthinkujem
o5 bez diakritiky.

Bavit ma ucinit veci efektivnejsie a automatizacie su presne o tom. Rad sa ucim nove nastroje, niecakam kym sa nieco stane standardom, testujem to sam na vlastnych projektoch.
Mam za sebou prakticke skusenosti s nasadzovanim AI do realnych produktov, nie len experimentovanie. Pracujem s Next.js, Supabase, Resend a AI integraciami denne, takze viem rychlo pochopil co treba a pustit sa do toho.
Tato pozicia mi dava zmysel aj preto, ze vysledky su viditelne rychlo. To ma motivuje viac ako dlhe projekty kde nevidis dopady svojej prace.
Živnostník
86
Obchodná akadémia - odbor: Ekonomika, Manažmentnemám39Áno35nemámBanská Bystricakomunikujem bez problémovk dispozícii neštudujem VŠk dispozíciiZa posledný mesiac ma najviac nadchol Claude Code (Anthropic) — terminálový agent schopný autonómne písať, refaktorovať a testovať kód v reálnom projekte bez neustálej asistencie. Kombinácia s možnosťou vlastného systémového promptu a integrácie MCP serverov z neho robí nástroj, ktorý reálne mení pracovný tok. Konkrétne som ho začal používať pri práci na WordPress projektoch a výsledky v rýchlosti sú merateľné.SKM – Školiaci Kurz Manažér: WordPress platforma s AI generovaním lekcií cez Anthropic API. Celý produkt som navrhol, vyvinul a zdokumentoval sám – od PHP backendu, cez prompt engineering, až po predajný manuál. Projekt cieli na firmy s povinným školením (BOZP, GDPR).
Coworking HUBB (hubb.sk): Kompletný WordPress web s multilingual podporou (Polylang SK/EN), rezervačným popupom, Cloudflare Turnstile CAPTCHA, custom post type pre bookings a B2B sales outreach plán.
MEDOMAINER.COM: Domény investičný projekt s automatizovaným systémom vyhľadávania, landing page generátorom a outreach nástrojmi.
Scraping infraštruktúra: Python scrapery na finstat.sk, profesia.sk, Google Maps (viacero krajín) – štandardizácia dát z rôznych zdrojov.
ByeWave beta waitlist: GDPR-compliant double opt-in systém s admin dashboardom.
Anthropic documentation & changelog (docs.anthropic.com)
r/LocalLLaMA a r/artificial (Reddit)
Hacker News – AI/dev sekcia (news.ycombinator.com)
X/Twitter – účty ako @karpathy, @sama, @AnthropicAI
YouTube kanály zamerané na AI workflow a no-code automatizáciu
Slovenská WordPress komunita
Najzaujímavejší projekt: SKM – Školiaci Kurz Manažér
Problém: Slovenské firmy majú zákonnú povinnosť školiť zamestnancov (BOZP, GDPR, požiarna ochrana), no dostupné riešenia sú drahé alebo nepoužiteľné.
Technológie: WordPress (custom plugin), PHP, Anthropic Claude API (generovanie lekcií a testov z témy), MySQL, JavaScript.
Výsledok: Funkčná micro-SaaS platforma kde administrátor zadá tému školenia, AI vygeneruje osnovu, lekcie aj testy, systém sleduje absolvovanie a generuje certifikáty. Súčasťou projektu je kompletný sales & operations manuál.
Priamu produkčnú skúsenosť s n8n, Make ani Zapier zatiaľ nemám na dlhodobom projekte. Mám však skúsenosti s API integráciami, webhookmi a automatizáciou cez vlastný kód (Python, PHP), čo je solídny základ pre rýchle osvojenie no-code nástrojov. Na základe skúseností s podobnými abstrakciami odhadujem čas na produktívnu prácu v n8n na dni, nie týždne.Anthropic Claude API – SKM projekt (generovanie obsahu, štruktúrované výstupy)
WordPress REST API – viacero projektov (HUBB, SKM)
Google Maps API – scraping a obohacovanie dát o firmách
Domain registrar APIs – MEDOMAINER.COM (kontrola dostupnosti, automatický outreach)
Rôzne payment/webhook integrácie v klientských projektoch cez WEBOM.SK
Navrhol by som tento workflow:

Príjem e-mailov – dedikovaná mailbox (napr. akcie@relaxos.sk), n8n trigger pri novom e-maile
Extrakcia dát cez LLM – e-mail (vrátane príloh PDF/DOCX) poslaný do Claude API so štruktúrovaným promptom, výstup definovaný JSON schemou: {hotel_name, valid_from, valid_to, discount_percent, room_types, conditions, source_email_id}
Validácia – automatická kontrola povinných polí, dátumy budúce, percento v rozumnom rozsahu; nevalidné záznamy do fronty na manuálnu kontrolu
Zápis do CRM/katalógu – n8n node zapíše do databázy/Google Sheets/CRM
Notifikácia – Slack/email vybraným zamestnancom so súhrnom nových akcií

Potenciálne problémy: variabilita formátov e-mailov (rieši LLM), duplicity (deduplikácia cez hotel_name + valid_from), hallucinácie LLM pri číslach (riešenie: výstup LLM vždy zahŕňa citáciu z pôvodného textu pre manuálnu verifikáciu).
Workflow:

n8n scheduler (denný/hodinový trigger)
Facebook Graph API – načítanie eventov zo zoznamu FB stránok (preddefinované page IDs)
Normalizácia cez LLM – Claude API zjednotí popis do štandardnej šablóny: {title, date, location, description_sk, category}
Generovanie EN verzie – druhý LLM call s promptom na preklad + lokalizáciu
RSS feed generátor – n8n zapisuje do XML súboru (SK feed + EN feed)
Hosting feedu – statický súbor na CDN alebo endpoint

Potenciálne problémy a riešenia:

Facebook API rate limits → cachovanie, dávkové spracovanie, backoff stratégia
Zmena Graph API → abstrakčná vrstva, monitoring
Nejednotná kvalita opisov eventov → prompt s few-shot príkladmi + minimálna dĺžka ako podmienka zaradenia
Duplicitné eventy (event zdieľaný viacerými stránkami) → deduplikácia podľa názvu + dátumu + lokality
Preklad nemusí zachovať kultúrny kontext → human review flag pre eventy s nízkou confidence
Silné:

Schopnosť celého product cyklu: od nápadu cez architektúru po deployment
Rýchle učenie sa nových nástrojov, samoštúdium bez potreby mentora
19 rokov reálnej praxe = rozlišujem medzi "zaujímavé" a "funkčné v produkcii"
Schopnosť komunikovať technické riešenia netechnickým ľuďom

Slabé:

Banská Bystrica vs. Žilina – onsite kapacita je obmedzená, kompensujem výsledkami
Tendencia riešiť viacero projektov paralelne – na tejto pozícii by som to vedome obmedzil
Nie som natívny n8n/Make používateľ (zatiaľ), hoci API automatizáciu robím inak
Väčšina uchádzačov na túto pozíciu bude mať nadšenie pre AI, no málo produkčnej praxe. Ja prinášam opak: 19 rokov skúseností s reálnymi projektmi, kde som musel riešiť nielen "či to funguje" ale aj "čo sa stane keď to zlyhá o 3 mesiacov". Anthropic API, WordPress, Python automatizácia, štandardizácia dát z externých zdrojov – to nie sú veci, ktoré sa idem učiť, to sú veci, ktoré robím. Zároveň aktívne experimentujem s najnovšími nástrojmi a viem ich rýchlo pretaviť do produkčného riešenia. Pre Relaxos to znamená konzultanta, ktorý môže dodať výsledky, nie len proof-of-concept demo.Živnostník
87
Gymnázium Vavrinca Benedikta NedožerskéhoUniverzita Svätého Cyrila a Metoda v Trnave, Masmediálna fakulta, odbor Marketingová komunikácia20Áno252028Trnavakomunikujem bez problémov5270Za posledný mesiac ma najviac zaujali experimenty v Google Labs, kde vznikajú špecializované AI nástroje zamerané na konkrétne typy práce, napríklad generovanie marketingového obsahu, vizuálov alebo pomoc pri programovaní.

Zaujímavé mi príde najmä to, že sa AI postupne presúva od všeobecných chatbotov k špecializovaným nástrojom pre konkrétne úlohy.
Najbližšia skúsenosť je vývoj vlastného SaaS projektu Apointa (https://www.zairou.dev), kde navrhujem a implementujem väčšinu systému.

Ide o rezervačnú platformu pre služby, ktorá zahŕňa správu dát, automatizáciu procesov a integrácie cez API.

V rámci projektu som riešil napríklad:
• návrh databázovej štruktúry a API
• prepojenie frontendu a backendu (Next.js + Supabase)
• experimentovanie s AI nástrojmi na automatizáciu niektorých procesov
• integrácie externých služieb
• automatizačné workflowy (napr. spracovanie dát a notifikácie)

Okrem toho som pracoval aj s nástrojmi ako n8n, kde som vytváral jednoduché workflowy prepájajúce rôzne služby a automatizujúce spracovanie správ alebo dát.

Moja úloha bola vždy hlavne návrh riešenia, implementácia a testovanie funkčnosti.
Na sledovanie trendov v AI používam viacero zdrojov, ktoré mi pomáhajú sledovať nové nástroje aj praktické využitie AI.

Najčastejšie používam Perplexity (https://www.perplexity.ai), ktorý je veľmi užitočný na rýchle vyhľadávanie aktuálnych informácií, nových nástrojov a výskumu v oblasti AI.

Ďalej sledujem napríklad:
• https://huggingface.co – nové modely, open-source AI projekty
• https://arxiv.org – výskumné články z oblasti AI
• https://github.com – open source projekty a AI nástroje
• https://news.ycombinator.com – diskusie o nových technológiách a startupoch
Najzaujímavejší projekt, na ktorom som pracoval, je SaaS platforma Apointa, white-label rezervačný systém pre služby. Cieľom bolo vytvoriť riešenie, ktoré si firmy môžu jednoducho vložiť na svoj web a spravovať služby, dostupnosť a rezervácie.

Projekt som navrhol ako full-stack aplikáciu s využitím Next.js, TypeScript a Supabase (PostgreSQL, auth, storage). Dôležitou časťou bolo navrhnúť škálovateľnú štruktúru databázy a modulárnu architektúru, aby systém vedel obslúžiť viacero poskytovateľov služieb.

Výsledkom je funkčný prototyp platformy s administráciou, rezervačným systémom a možnosťou integrácie ďalších služieb cez API.
Pracoval som s nástrojmi ako n8n a Make na automatizáciu workflowov a prepájanie služieb cez API.

Použil som ich napríklad na:
• automatizáciu spracovania správ z Telegramu (hlasová správa → prepis → vytvorenie úlohy v skupine),
• prepojenie rôznych API služieb do jedného workflowu,
• automatizáciu spracovania dát a notifikácií.

Výhodou týchto nástrojov je rýchle prototypovanie automatizácií bez nutnosti písať kompletný backend, pričom pri zložitejších prípadoch sa dajú doplniť vlastné skripty alebo API integrácie.
Áno, pracoval som s viacerými API v rámci vlastných projektov.

Najčastejšie ide o integrácie v TypeScript/Node.js prostredí, kde aplikácia komunikuje s externými službami cez REST API.

Príklady:
• integrácia AI modelov (napr. Gemini / GPT) do aplikácie,
• komunikácia medzi frontendom a backendom cez vlastné API endpointy,
• automatizačné workflowy, kde n8n spracováva dáta a posiela ich medzi rôznymi službami.

Pri práci s API riešim hlavne autentifikáciu, transformáciu dát a spoľahlivosť workflowov.
Navrhol by som automatizovaný pipeline proces:
1. Zber dát
Email od hotela by sa automaticky zachytil cez email trigger (napr. v n8n).
2. Extrahovanie informácií pomocou AI
Obsah emailu by sa spracoval pomocou AI modelu, ktorý by z neštruktúrovaného textu extrahoval kľúčové informácie do štruktúrovanej podoby (napr. JSON):
• názov hotela
• typ akcie / zľavy
• dátumy
• cena alebo percentuálna zľava
• podmienky
3. Validácia dát
Automatický krok by kontroloval chýbajúce alebo nejasné údaje.
4. Uloženie do databázy alebo katalógu
Dáta by sa uložili do centralizovanej databázy alebo CRM systému.
5. Distribúcia informácií
Na základe pravidiel by sa automaticky:
• aktualizoval katalóg akcií
• poslali notifikácie vybraným zamestnancom
• vytvorili interné záznamy.

Takýto proces by výrazne znížil manuálnu prácu a zároveň zabezpečil jednotný formát dát.
Workflow by mohol fungovať nasledovne:
1. Automatický skript alebo workflow by pravidelne kontroloval FB stránky definovaných subjektov.
2. Nové udalosti by sa extrahovali (napr. scraping alebo API ak je dostupné).
3. Text udalostí by sa pomocou AI spracoval do jednotného formátu:
• názov podujatia
• dátum
• miesto
• krátky popis
4. Z týchto dát by sa generoval RSS feed.
5. AI preklad by následne vytvoril anglickú verziu feedu.

Možné problémy:
• Facebook obmedzenia pri získavaní dát
• neštruktúrované alebo neúplné informácie
• duplicity udalostí

Riešenie:
• cacheovanie dát
• validácia vstupov
• deduplikácia podľa názvu, dátumu a miesta.
Silné stránky:
• schopnosť rýchlo sa učiť nové technológie
• analytické myslenie pri návrhu systémov
• schopnosť samostatne navrhovať a implementovať riešenia
• skúsenosť s vývojom vlastných projektov od návrhu po implementáciu

Slabé stránky:
• niekedy venujem príliš veľa času optimalizácii riešenia namiesto rýchleho prototypovania
• mám tendenciu riešiť problémy príliš technicky, aj keď by niekedy stačilo jednoduchšie riešenie
Myslím si, že som vhodný kandidát hlavne preto, že mám kombináciu technických aj praktických skúseností s automatizáciou, AI nástrojmi a vývojom vlastných projektov.

Pracujem ako full-stack developer a zároveň som zvyknutý navrhovať riešenia od nápadu až po implementáciu. Pri projektoch často prepájam rôzne API služby, pracujem s AI modelmi a automatizáciou workflowov (napr. n8n).

Zároveň ma baví experimentovať s novými nástrojmi a hľadať praktické spôsoby, ako nimi zjednodušiť reálne procesy vo firme – napríklad spracovanie dát, generovanie obsahu alebo automatizáciu rutinných úloh.

Myslím si, že práve kombinácia technického backgroundu, systematického myslenia a záujmu o AI nástroje by mohla byť pre túto pozíciu prínosná.
Študent
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152