AI OS Layer v1.21 — Terminálová vrstva umelej inteligencie

AI OS Layer v1.21 — Terminálová vrstva umelej inteligencie

AI nástroje dnes existujú hlavne ako webové služby alebo IDE pluginy. Projekt AI OS Layer pristupuje k problému úplne inak — snaží sa integrovať AI priamo do terminálu ako prirodzenú súčasť Unix prostredia.

Cieľom projektu nie je vytvoriť framework alebo aplikáciu, ale tenkú systémovú vrstvu, ktorá umožní pracovať s AI modelmi rovnako prirodzene ako s nástrojmi typu grep, sed alebo awk.

Nasledujúca dokumentácia opisuje aktuálnu verziu projektu AI OS Layer v1.21.


Dokumentácia AI OS Layer v1.21

Generované: Po 6. apríl 2026, 22:57:38 CEST

AI Layer je robustná sada POSIX-kompatibilných shell skriptov navrhnutých na interakciu s lokálnymi
(Ollama) alebo vzdialenými AI modelmi priamo z terminálu.

Projekt je striktne POSIX kompatibilný, čo znamená, že bude fungovať bez úprav v shelloch:

  • sh
  • dash
  • bash
  • zsh

Minimálne závislosti

Projekt má veľmi nízke nároky na závislosti.

Vyžaduje iba štandardné nástroje dostupné prakticky na každom Unix systéme:

  • curl
  • jq
  • sed
  • awk

Inštalácia

Súčasťou projektu je inštalačný skript, ktorý:

  • stiahne balík
  • nastaví symlinky
  • pripraví konfiguračné adresáre

Spustiť ho možno jedným príkazom:

sh -c "$(curl -fsSL https://pihi.sk/projects/ai_layer/netinstall.sh)"

Project Structure

AI OS Layer je organizovaný ako modulárny projekt. Nasledujúci výpis ukazuje aktuálnu štruktúru projektu.

.

├── ag.sh
├── ai.sh
├── at.sh
├── AUTO_DOC.md
├── aw.sh
├── config
│ ├── ai.conf
│ ├── aw_rules
│ │ ├── change_dir.aw
│ │ ├── log.aw
│ │ ├── shell_fail.aw
│ │ ├── shell_on_error.aw
│ │ ├── test.aw
│ │ └── watch_cmd.aw
│ ├── models
│ │ ├── deepseek-coder-v2:16b.meta
│ │ ├── DeepSeek-R1-Distill-Qwen-Q4_K_M:32b.meta
│ │ ├── deepseek-r1:14b.meta
│ │ ├── gpt-oss:20b.meta
│ │ ├── gpt-5-mini.meta
│ │ ├── gpt-5.4.meta
│ │ ├── llama3.1:8b.meta
│ │ ├── qwen3-coder:30b.meta
│ │ ├── sora-2.meta
│ │ ├── text-embedding-3-small.meta
│ │ ├── tts-1-hd.meta
│ │ └── whisper-1.meta
│ ├── profiles
│ │ ├── agent.conf
│ │ ├── code.conf
│ │ ├── creative.conf
│ │ ├── debug.conf
│ │ ├── gptmini.conf
│ │ ├── gptoss.conf
│ │ ├── llama.conf
│ │ ├── op.conf
│ │ └── shell.conf
│ └── prompts
│ ├── agent.sh
│ ├── code.sh
│ ├── creative.sh
│ ├── debug.sh
│ ├── default.sh
│ └── shell.sh
├── deploy_build_to_ftp.sh
├── lib
│ ├── api
│ │ ├── ollama
│ │ │ ├── ollama_api_map.sh
│ │ │ ├── ollama_build_json.sh
│ │ │ ├── ollama_call_api.sh
│ │ │ └── ollama_tool_registry.sh
│ │ └── openai
│ │ ├── openai_api_map.sh
│ │ ├── openai_build_json.sh
│ │ ├── openai_call_api.sh
│ │ └── openai_tool_registry.sh
│ ├── commands
│ │ ├── delete.sh
│ │ ├── download.sh
│ │ ├── help.sh
│ │ ├── ins.sh
│ │ ├── list.sh
│ │ ├── log.sh
│ │ ├── profiles.sh
│ │ ├── prompts.sh
│ │ ├── run.sh
│ │ ├── tools.sh
│ │ ├── update_openai.sh
│ │ ├── update.sh
│ │ └── version.sh
│ ├── core
│ │ ├── build_agent_prompt.sh
│ │ ├── build_log_ai.sh
│ │ ├── calculate_cost.sh
│ │ ├── cleanup.sh
│ │ ├── get_lang.sh
│ │ ├── get_max_content.sh
│ │ ├── map_to_json.sh
│ │ ├── profile.sh
│ │ ├── prompt.sh
│ │ ├── resolve_ip_endpoint.sh
│ │ ├── run_tool.sh
│ │ └── tool_registry.sh
│ ├── rag
│ │ ├── build_context.sh
│ │ ├── project_info.sh
│ │ └── system_info.sh
│ ├── renderer
│ │ ├── colors.sh
│ │ ├── fake_cmatrix.sh
│ │ ├── metrics.sh
│ │ └── posix_markdown_render.sh
│ ├── tools
│ │ ├── append_file.sh
│ │ ├── cat.sh
│ │ ├── find.sh
│ │ ├── grep.sh
│ │ ├── ls.sh
│ │ ├── pwd.sh
│ │ ├── tree.sh
│ │ └── write_file.sh
│ └── watch
│ ├── dispatch_action.sh
│ ├── modules
│ │ ├── append_file.sh
│ │ ├── change_dir.sh
│ │ ├── change_file.sh
│ │ ├── shell_event.sh
│ │ └── watch_cmd.sh
│ └── parse_rules.sh
├── logs
├── tests
│ ├── agent
│ │ └── multi_log.at
│ ├── regression
│ │ └── fail_tool_call.at
│ └── runtime
│ ├── basic_agent.at
│ └── version.at
├── utils
│ ├── generate_documentation.sh
│ ├── netinstall.sh
│ ├── shell_hook_snippets.sh
│ └── tool_call_test.sh
└── VERSION

23 directories, 104 files
Total size: 524K

Lines:

5970 celkom

544 ./lib/api/openai/openai_call_api.sh
517 ./aw.sh
463 ./lib/api/ollama/ollama_call_api.sh
376 ./ag.sh
351 ./ai.sh
341 ./at.sh
263 ./lib/watch/parse_rules.sh
192 ./lib/renderer/posix_markdown_render.sh
167 ./utils/generate_documentation.sh

Commands

AI OS Layer obsahuje viacero príkazov pre správu modelov, spúšťanie AI a prácu s projektom.

  • delete: Delete model from ollama server
  • download: Download model to ollama server
  • help: Options Commands Examples
  • ins: Full inspect model
  • list: List available models from endpoint
  • log: !/usr/bin/env bash
  • profiles: View available profiles
  • prompts: View available prompts
  • run: Run a command with an explanation or correction
  • tools: View available tools
  • update_openai: !/usr/bin/env bash
  • update: Update model meta files to include price
  • version: >> TERMINAL INTELLIGENCE <<

Profiles

  • agent
  • code
  • creative
  • debug
  • gptmini
  • gptoss
  • llama
  • op
  • shell

Prompts

  • agent
  • code
  • creative
  • debug
  • default
  • shell

Runtime tools

  • append_file
  • cat
  • find
  • grep
  • ls
  • pwd
  • tree
  • write_file

Model built in tools

  • web_search

Terminal Intelligence — ai

                ▄▄▄       ██▓
               ▒████▄    ▓██▒
               ▒██  ▀█▄  ▒██▒
               ░██▄▄▄▄██ ░██░
                ▓█   ▓██▒░██░
                ▒▒   ▓▒█░░▓  
                 ▒   ▒▒ ░ ▒ ░
                 ░   ▒    ▒ ░
                     ░  ░ ░  
                
          >> INTELLIGENCE v. 1.21 <<      

Usage: ai [options] [command] "question"

 Options:
   -h | --help    Show this help message
   -v | --version Show version
   -ui            Show metrics
   -d             Enable FULL debug mode
   -dr            Debug RAG without call api
   -rag           Enable RAG context
   -agent         Enable Agent mode
   -e ENDPOINT    Use a specific AI endpoint
   -m MODEL       Use a specific AI model 
   -o OUTFILE     Use a specific output filename
   -c KB          Set max context size in KB
   -prompt [val]  Set prompt
   -p [val]       Set model profile
   -mst [val]     Set opt mirostat
   -mste [val]    Set opt mirostat_eta
   -mstt [val]    Set opt mirostat_tau
   -nctx [val]    Set opt num_ctx
   -rln [val]     Set opt repeat_last_n
   -rp [val]      Set opt repeat_penalty
   -temp [val]    Set opt temperature
   -seed [val]    Set opt seed
   -st [val]      Set opt stop
   -tfsz [val]    Set opt tfs_z
   -np [val]      Set opt num_predict
   -topk [val]    Set opt top_k
   -topp [val]    Set opt top_p
   -minp [val]    Set opt min_p

 Commands:
   list           List available models
   profile        List available profiles
   prompt         List available prompts
   tools          List available tools
   download       Download ollama model 
   delete         Delete ollama model 
   ins            Inspect ollama model full info
   update         Updates ollama model meta files
   update_openai  Updates openai model meta files
   run            Run your command with assistence
   log            Show logfile history.json

 Examples:
   ai -temp 0.1 "question"
   ai -m gpt-oss:20b ins
   ai run cat hostory.log
   ai -p creative -o response.md "question" 
   ai -c 48 -m llama3.1:8b -o test.md "question"
   tail -n 20 history.log | ai -d "Make a report"
   ai history.log "Analyze problems"


Terminal Agent — ag

                 ▄▄▄        ▄████ 
               ▒████▄     ██▒ ▀█▒
               ▒██  ▀█▄  ▒██░▄▄▄░
               ░██▄▄▄▄██ ░▓█  ██▓
                ▓█   ▓██▒░▒▓███▀▒
                ▒▒   ▓▒█░ ░▒   ▒ 
                 ▒   ▒▒ ░  ░   ░ 
                 ░   ▒   ░ ░   ░ 
                     ░  ░      ░ 
                                 
              >> AGENT v. 1.21 <<

Usage: ag [options] "task"

Options:
  -h | --help           Show help
  -v | --version        Show version
  -m | --mode MODE      single|multi|repair|inspect
  -ms | --max-steps N   Maximum number of steps
  -p | --profile NAME   ai profile to use (default: agent_openai)
  -d | --debug          DEBUG mode

Examples:
  ag -m single "zisti verziu projektu"
  ag -m multi -ms 6 "analyzuj projekt"
  ag -m repair "najdi problem v build flow"
  ag -m inspect -p gptoss "vysvetli projekt"


Terminal Tester — at

                 ▄▄▄     ▄▄▄█████▓
               ▒████▄   ▓  ██▒ ▓▒
               ▒██  ▀█▄ ▒ ▓██░ ▒░
               ░██▄▄▄▄██░ ▓██▓ ░ 
                ▓█   ▓██▒ ▒██▒ ░ 
                ▒▒   ▓▒█░ ▒ ░░   
                 ▒   ▒▒ ░   ░    
                 ░   ▒    ░      
                     ░  ░        
                                
              >> TESTER v. 1.21 <<

 Usage:
   at [options] 
   at [options] 
   at [options] all

 Options:
   -h       Show help
   -v       Show version
   -d       Debug mode
   -f       Fail fast

 Examples:
   at tests/runtime/version.at
   at -d runtime
   at regression
   at -f all


Watcher System — aw

             ▄▄▄       █     █░
            ▒████▄    ▓█░ █ ░█░
            ▒██  ▀█▄  ▒█░ █ ░█ 
            ░██▄▄▄▄██ ░█░ █ ░█ 
             ▓█   ▓██▒░░██▒██▓ 
             ▒▒   ▓▒█░░ ▓░▒ ▒  
              ▒   ▒▒ ░  ▒ ░ ░  
              ░   ▒     ░   ░  
                  ░  ░    ░    
                               
                                
          >> WATCHER v. 1.21 <<

Usage:
  aw run [rule-file ...]
  aw once [rule-file ...]
  aw test [rule-file ...]
  aw inspect 
  aw start [rule-file ...]
  aw stop
  aw status
  aw shell_event --exit  --cmd [--cwd ] [--shell ]

Rules:
  watch ...
  watch_cmd ...
  watch_shell on_fail do ai "Analyze failed shell command and suggest a fix"


Zhrnutie

AI OS Layer v1.21 predstavuje experimentálny, ale veľmi zaujímavý prístup k integrácii umelej inteligencie do Unix prostredia.

Namiesto vytvárania ďalšieho frameworku alebo aplikácie projekt buduje AI systémovú vrstvu priamo nad shellom.

Kombinuje:

  • POSIX skripty
  • terminálové nástroje
  • lokálne aj remote modely
  • agentov
  • watcher systém
  • testovací framework

Výsledkom je prostredie, kde môže AI pracovať priamo s projektom, analyzovať chyby, sledovať systémové udalosti a pomáhať pri vývoji — všetko priamo z terminálu.

Marek Mihók