AI nástroje dnes existujú hlavne ako webové služby alebo IDE pluginy. Projekt AI OS Layer pristupuje k problému úplne inak — snaží sa integrovať AI priamo do terminálu ako prirodzenú súčasť Unix prostredia.
Cieľom projektu nie je vytvoriť framework alebo aplikáciu, ale tenkú systémovú vrstvu, ktorá umožní pracovať s AI modelmi rovnako prirodzene ako s nástrojmi typu grep, sed alebo awk.
Nasledujúca dokumentácia opisuje aktuálnu verziu projektu AI OS Layer v1.21.
Dokumentácia AI OS Layer v1.21
Generované: Po 6. apríl 2026, 22:57:38 CEST
AI Layer je robustná sada POSIX-kompatibilných shell skriptov navrhnutých na interakciu s lokálnymi
(Ollama) alebo vzdialenými AI modelmi priamo z terminálu.
Projekt je striktne POSIX kompatibilný, čo znamená, že bude fungovať bez úprav v shelloch:
shdashbashzsh
Minimálne závislosti
Projekt má veľmi nízke nároky na závislosti.
Vyžaduje iba štandardné nástroje dostupné prakticky na každom Unix systéme:
curljqsedawk
Inštalácia
Súčasťou projektu je inštalačný skript, ktorý:
- stiahne balík
- nastaví symlinky
- pripraví konfiguračné adresáre
Spustiť ho možno jedným príkazom:
sh -c "$(curl -fsSL https://pihi.sk/projects/ai_layer/netinstall.sh)"
Project Structure
AI OS Layer je organizovaný ako modulárny projekt. Nasledujúci výpis ukazuje aktuálnu štruktúru projektu.
. ├── ag.sh ├── ai.sh ├── at.sh ├── AUTO_DOC.md ├── aw.sh ├── config │ ├── ai.conf │ ├── aw_rules │ │ ├── change_dir.aw │ │ ├── log.aw │ │ ├── shell_fail.aw │ │ ├── shell_on_error.aw │ │ ├── test.aw │ │ └── watch_cmd.aw │ ├── models │ │ ├── deepseek-coder-v2:16b.meta │ │ ├── DeepSeek-R1-Distill-Qwen-Q4_K_M:32b.meta │ │ ├── deepseek-r1:14b.meta │ │ ├── gpt-oss:20b.meta │ │ ├── gpt-5-mini.meta │ │ ├── gpt-5.4.meta │ │ ├── llama3.1:8b.meta │ │ ├── qwen3-coder:30b.meta │ │ ├── sora-2.meta │ │ ├── text-embedding-3-small.meta │ │ ├── tts-1-hd.meta │ │ └── whisper-1.meta │ ├── profiles │ │ ├── agent.conf │ │ ├── code.conf │ │ ├── creative.conf │ │ ├── debug.conf │ │ ├── gptmini.conf │ │ ├── gptoss.conf │ │ ├── llama.conf │ │ ├── op.conf │ │ └── shell.conf │ └── prompts │ ├── agent.sh │ ├── code.sh │ ├── creative.sh │ ├── debug.sh │ ├── default.sh │ └── shell.sh ├── deploy_build_to_ftp.sh ├── lib │ ├── api │ │ ├── ollama │ │ │ ├── ollama_api_map.sh │ │ │ ├── ollama_build_json.sh │ │ │ ├── ollama_call_api.sh │ │ │ └── ollama_tool_registry.sh │ │ └── openai │ │ ├── openai_api_map.sh │ │ ├── openai_build_json.sh │ │ ├── openai_call_api.sh │ │ └── openai_tool_registry.sh │ ├── commands │ │ ├── delete.sh │ │ ├── download.sh │ │ ├── help.sh │ │ ├── ins.sh │ │ ├── list.sh │ │ ├── log.sh │ │ ├── profiles.sh │ │ ├── prompts.sh │ │ ├── run.sh │ │ ├── tools.sh │ │ ├── update_openai.sh │ │ ├── update.sh │ │ └── version.sh │ ├── core │ │ ├── build_agent_prompt.sh │ │ ├── build_log_ai.sh │ │ ├── calculate_cost.sh │ │ ├── cleanup.sh │ │ ├── get_lang.sh │ │ ├── get_max_content.sh │ │ ├── map_to_json.sh │ │ ├── profile.sh │ │ ├── prompt.sh │ │ ├── resolve_ip_endpoint.sh │ │ ├── run_tool.sh │ │ └── tool_registry.sh │ ├── rag │ │ ├── build_context.sh │ │ ├── project_info.sh │ │ └── system_info.sh │ ├── renderer │ │ ├── colors.sh │ │ ├── fake_cmatrix.sh │ │ ├── metrics.sh │ │ └── posix_markdown_render.sh │ ├── tools │ │ ├── append_file.sh │ │ ├── cat.sh │ │ ├── find.sh │ │ ├── grep.sh │ │ ├── ls.sh │ │ ├── pwd.sh │ │ ├── tree.sh │ │ └── write_file.sh │ └── watch │ ├── dispatch_action.sh │ ├── modules │ │ ├── append_file.sh │ │ ├── change_dir.sh │ │ ├── change_file.sh │ │ ├── shell_event.sh │ │ └── watch_cmd.sh │ └── parse_rules.sh ├── logs ├── tests │ ├── agent │ │ └── multi_log.at │ ├── regression │ │ └── fail_tool_call.at │ └── runtime │ ├── basic_agent.at │ └── version.at ├── utils │ ├── generate_documentation.sh │ ├── netinstall.sh │ ├── shell_hook_snippets.sh │ └── tool_call_test.sh └── VERSION
23 directories, 104 files
Total size: 524K
Lines:
5970 celkom 544 ./lib/api/openai/openai_call_api.sh 517 ./aw.sh 463 ./lib/api/ollama/ollama_call_api.sh 376 ./ag.sh 351 ./ai.sh 341 ./at.sh 263 ./lib/watch/parse_rules.sh 192 ./lib/renderer/posix_markdown_render.sh 167 ./utils/generate_documentation.sh
Commands
AI OS Layer obsahuje viacero príkazov pre správu modelov, spúšťanie AI a prácu s projektom.
- delete: Delete model from ollama server
- download: Download model to ollama server
- help: Options Commands Examples
- ins: Full inspect model
- list: List available models from endpoint
- log: !/usr/bin/env bash
- profiles: View available profiles
- prompts: View available prompts
- run: Run a command with an explanation or correction
- tools: View available tools
- update_openai: !/usr/bin/env bash
- update: Update model meta files to include price
- version: >> TERMINAL INTELLIGENCE <<
Profiles
- agent
- code
- creative
- debug
- gptmini
- gptoss
- llama
- op
- shell
Prompts
- agent
- code
- creative
- debug
- default
- shell
Runtime tools
- append_file
- cat
- find
- grep
- ls
- pwd
- tree
- write_file
Model built in tools
- web_search
Terminal Intelligence — ai
▄▄▄ ██▓ ▒████▄ ▓██▒ ▒██ ▀█▄ ▒██▒ ░██▄▄▄▄██ ░██░ ▓█ ▓██▒░██░ ▒▒ ▓▒█░░▓ ▒ ▒▒ ░ ▒ ░ ░ ▒ ▒ ░ ░ ░ ░ >> INTELLIGENCE v. 1.21 << Usage: ai [options] [command] "question" Options: -h | --help Show this help message -v | --version Show version -ui Show metrics -d Enable FULL debug mode -dr Debug RAG without call api -rag Enable RAG context -agent Enable Agent mode -e ENDPOINT Use a specific AI endpoint -m MODEL Use a specific AI model -o OUTFILE Use a specific output filename -c KB Set max context size in KB -prompt [val] Set prompt -p [val] Set model profile -mst [val] Set opt mirostat -mste [val] Set opt mirostat_eta -mstt [val] Set opt mirostat_tau -nctx [val] Set opt num_ctx -rln [val] Set opt repeat_last_n -rp [val] Set opt repeat_penalty -temp [val] Set opt temperature -seed [val] Set opt seed -st [val] Set opt stop -tfsz [val] Set opt tfs_z -np [val] Set opt num_predict -topk [val] Set opt top_k -topp [val] Set opt top_p -minp [val] Set opt min_p Commands: list List available models profile List available profiles prompt List available prompts tools List available tools download Download ollama model delete Delete ollama model ins Inspect ollama model full info update Updates ollama model meta files update_openai Updates openai model meta files run Run your command with assistence log Show logfile history.json Examples: ai -temp 0.1 "question" ai -m gpt-oss:20b ins ai run cat hostory.log ai -p creative -o response.md "question" ai -c 48 -m llama3.1:8b -o test.md "question" tail -n 20 history.log | ai -d "Make a report" ai history.log "Analyze problems"
Terminal Agent — ag
▄▄▄ ▄████ ▒████▄ ██▒ ▀█▒ ▒██ ▀█▄ ▒██░▄▄▄░ ░██▄▄▄▄██ ░▓█ ██▓ ▓█ ▓██▒░▒▓███▀▒ ▒▒ ▓▒█░ ░▒ ▒ ▒ ▒▒ ░ ░ ░ ░ ▒ ░ ░ ░ ░ ░ ░ >> AGENT v. 1.21 << Usage: ag [options] "task" Options: -h | --help Show help -v | --version Show version -m | --mode MODE single|multi|repair|inspect -ms | --max-steps N Maximum number of steps -p | --profile NAME ai profile to use (default: agent_openai) -d | --debug DEBUG mode Examples: ag -m single "zisti verziu projektu" ag -m multi -ms 6 "analyzuj projekt" ag -m repair "najdi problem v build flow" ag -m inspect -p gptoss "vysvetli projekt"
Terminal Tester — at
▄▄▄ ▄▄▄█████▓ ▒████▄ ▓ ██▒ ▓▒ ▒██ ▀█▄ ▒ ▓██░ ▒░ ░██▄▄▄▄██░ ▓██▓ ░ ▓█ ▓██▒ ▒██▒ ░ ▒▒ ▓▒█░ ▒ ░░ ▒ ▒▒ ░ ░ ░ ▒ ░ ░ ░ >> TESTER v. 1.21 << Usage: at [options] at [options] at [options] all Options: -h Show help -v Show version -d Debug mode -f Fail fast Examples: at tests/runtime/version.at at -d runtime at regression at -f all
Watcher System — aw
▄▄▄ █ █░
▒████▄ ▓█░ █ ░█░
▒██ ▀█▄ ▒█░ █ ░█
░██▄▄▄▄██ ░█░ █ ░█
▓█ ▓██▒░░██▒██▓
▒▒ ▓▒█░░ ▓░▒ ▒
▒ ▒▒ ░ ▒ ░ ░
░ ▒ ░ ░
░ ░ ░
>> WATCHER v. 1.21 <<
Usage:
aw run [rule-file ...]
aw once [rule-file ...]
aw test [rule-file ...]
aw inspect
aw start [rule-file ...]
aw stop
aw status
aw shell_event --exit --cmd [--cwd ] [--shell ]
Rules:
watch ...
watch_cmd ...
watch_shell on_fail do ai "Analyze failed shell command and suggest a fix"
Zhrnutie
AI OS Layer v1.21 predstavuje experimentálny, ale veľmi zaujímavý prístup k integrácii umelej inteligencie do Unix prostredia.
Namiesto vytvárania ďalšieho frameworku alebo aplikácie projekt buduje AI systémovú vrstvu priamo nad shellom.
Kombinuje:
- POSIX skripty
- terminálové nástroje
- lokálne aj remote modely
- agentov
- watcher systém
- testovací framework
Výsledkom je prostredie, kde môže AI pracovať priamo s projektom, analyzovať chyby, sledovať systémové udalosti a pomáhať pri vývoji — všetko priamo z terminálu.