두어 달 이상 오픈클로를 쓰면서 느낀 점.
 


1. AI 모델 토큰이 계속 발목을 잡는다. 뭘 조금만 길게 하려고 하면 rate limit reached 어쩌구...
2. 생각 이상으로 손이 많이 간다. 비서 주제에 주인님인 나한테 시키는 일이 더 많다.
3. 기본 성격(SOUL.md)과 기본 두뇌(MEMORY.md) 관리를 수동으로 잘 해줘야 똑똑해진다.
4. 오픈클로가 최근 들어 급격히 계속 업그레이드되고 있는데, 버그도 그만큼 많아지고 있다.
5. 삼성 안드로이드 태블릿 #1, 윈도우 PC #2 두 장치를 노드로 등록해서 뭘 해보려는데, 잘 안된다.

 
각각에 대해 조금씩 소회(?) 겸 하소연(?) 겸 설명글을 써 본다.
 
 
1.
 
내가 현재 등록해서 쓰고 있는 AI 제공자 및 모델은 아래와 같다.
 
- 구글(Google) 잼미니(Gemini) 계정 3개 API Key 연결: gemini-3-flash
- 구글 반중력(Antigravity) 계정 1개 OAuth 연결: gemini-3-flash (최근 버전에서 지원 중단됨)
- 올라마(Ollama) 클라우드 계정 1개 연결: gpt-oss:120b-cloud, minimax-m2.7:cloud
- 오픈AI(OpenAI) 챗지피티(ChatGPT) 계정 1개 API Key 연결: gpt-4o-mini
- 앤트로픽(Anthropic) 클로드(Claude) 계정 1개 API Key 연결: claude-haiku-4-5 (곧 지원 중단될 예정)
 
이걸 병렬로 쭉 연결해서 토큰이 다 소진되면 다음, 다음으로 넘어가도록 설정해서 쓰고 있다.

...,
  "auth": {
    "profiles": {
      "google-antigravity:rodimreht": {
        "provider": "google-antigravity",
        "mode": "oauth"
      },
      "google:default": {
        "provider": "google",
        "mode": "api_key"
      },
      "google:default2": {
        "provider": "google",
        "mode": "api_key"
      },
      "google:default3": {
        "provider": "google",
        "mode": "api_key"
      },
      "openai:default": {
        "provider": "openai",
        "mode": "api_key"
      },
      "anthropic:default": {
        "provider": "anthropic",
        "mode": "api_key"
      }
    },
    "order": {
      "google-antigravity": ["google-antigravity:rodimreht"],
      "google": ["google:default", "google:default2", "google:default3"],
      "openai": ["openai:default"],
      "anthropic": ["anthropic:default"]
    }
  },
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://127.0.0.1:11434/v1",
        "apiKey": "ollama-local",
        "api": "openai-completions",
        "models": [
          {
            "id": "gpt-oss:120b-cloud",
            "name": "gpt-oss:120b-cloud",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 131072,
            "maxTokens": 16384
          },
          {
            "id": "minimax-m2.7:cloud",
            "name": "minimax-m2.7:cloud",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 131072,
            "maxTokens": 16384
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/gpt-oss:120b-cloud",
        "fallbacks": [
          "ollama/minimax-m2.7:cloud",
          "google-antigravity/gemini-3-flash",
          "openai/gpt-4o-mini",
          "google/gemini-3-flash",
          "anthropic/claude-haiku-4-5"
        ]
      },
      "models": {
        "ollama/gpt-oss:120b-cloud": {},
        "ollama/minimax-m2.5:cloud": {},
        "google-antigravity/gemini-3-flash": {},
        "google/gemini-3-flash": {
          "alias": "gemini-flash"
        },
        "openai/gpt-4o-mini": {},
        "anthropic/claude-haiku-4-5": {
          "params": {
            "cacheRetention": "short"
          }
        }
      },
      "workspace": "/root/.openclaw/workspace",
      "userTimezone": "Asia/Seoul",
      "contextPruning": {
        "mode": "cache-ttl",
        "ttl": "1h"
      },
      "compaction": {
        "mode": "safeguard"
      },
      "heartbeat": {
        "every": "30m"
      },
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  },
...

[내 비서(openclaw-bot)의 openclaw.json 설정 일부]

 

이 중에서 올라마(Ollama)는 윈도우 PC에서 오픈클로를 돌리던 시절, 즉 2월 초에 올라마 서비스를 설치하고 로컬 AI 에이전트를 구동해 보려고 했다가 엄~~~청나게 느리고 답답해서 결국 사용하는 데 실패하고야 말았는데, 의외로 클라우드 모델로 바꿔 써보니 굉장히 쓸 만해서 지금까지 가장 요긴하게 사용하고 있는 모델이다. 희한하게 다른 AI 모델들에 비해 토큰도 빨리 소진되지 않고 꽤 오래 버티는 느낌? 그래서 현재 안드로이드 장치로 비서를 옮겨 심은 후에도 터묵스(termux) 환경에 똑같이 올려서 쓰고 있다.
 

# Termux에 ollama 설치
curl -fsSL https://ollama.com/install.sh | sh 

# 설치 확인
ollama --version

# 모델 다운로드 및 인증
ollama run gpt-oss:120b-cloud
ollama signin
ollama launch openclaw --config
ollama serve

# 모델 추가
ollama --version
ollama list
ollama pull minimax-m2.7:cloud

[올라마 설치, 오픈클로 연동 및 모델 추가에 사용된 명령어들]

 
 
아무튼, 올라마에다 구글 계정 3개까지 합치면 내가 쓰고 있는 무료 버전 AI 모델은 총 7개 6개(최근 하나 줄었으니)나 된다. 그래서 돌려가며 쓰면 엄청 오래 쓸 수 있을 것 같았다... 그런데 웬걸, 채팅 한 번 삐끗하면 순식간에 모든 AI 모델 토큰이 동나서 아무 것도 못하는 상태가 되기 일쑤. 특히 연결된 노드로 특정 명령을 좀 실행시켜 보려고 하면 더 그랬다. 빨리 잘 되면 토큰을 별로 안 쓰고 해결이 되는데, 잘 안 되면 이리저리 다양하게 시도하면서 토큰을 팍팍 소진하게 되는 모양.

역시 AI 시대에는 사람의 역할이 더 중요하다는 말이 맞았다. 프롬프트를 아무렇게나 막 날리면 안된다. 사람이 더 똑똑해져야 한다는 좋은(?) 교훈을 여기서도 얻을 수 있었다... 털썩.
 


오픈클로 노드(node)는 처음에는 굉장했었다. 시키는 대로 척척 명령을 날려서 실행을 잘했다. 그런데 2026.3.x 이후로 버전이 업그레이드되면서 점점 보안만 강해져 지금은 거의 되는 것이 없다. 매뉴얼 사이트에 관련 상세 내용이 있는 것도 아니고... 뭘 하든 안된다고만 에러가 나서 짜증.

 
 
 
 
2.
 
이건 비서가 아니라 숫제 상전이다. 하나 예를 들면, 매일 아침 뉴스 브리핑을 하라고 시켜놓은 일이 있다.


이런 식이다... 도대체가 말이 안통하는 것도 아니고, 거짓말을 너무 잘한다. 하지도 않은 일을 했다고 우기고 딴소리하고...

 
결국 내가 직접 cron/jobs.json 파일을 열어서 확인하고 정리했다.

 
하늘색이 원래 있던 스케줄. 노란색은 언제 생겼는지 모르게 중복 추가된 스케줄 2개, 마지막 빨간색은 위 채팅으로 정리하라고 했더니 또 하나 추가해버린(? 대체 왜???) 신규 중복 스케줄이었다.
 
RSS 피드 몇 개 가지고 와서 정리한 다음 나한테 보내 주기만 하면 되는 이 간단한 작업을 제대로 못하고(어쩌다가 한번씩은 또 정상 동작한다. 그러니 더 미쳐...) 계속 이런 식이다...
 
 


또 한 가지, 최근 개발한 근태 관련 서비스 테스트를 위해 내가 자주-거의 매일- 시켜보는 일이 있다.

바로 출근 체크.

물론 여기까지 오는 데에도 API 학습시키고 틀린 거 일일이 교정해 주는 등 지난한 과정이 있었지만 그건 생략하고... 기본적으로 내가 아침에 "출근" 또는 "출근 처리"라는 말을 하면 알아서 운영 환경 테스트 계정 출근 처리가 되었는지 확인하고, 안되어 있는 경우 출근 처리를 하는 작업인데, 평소에는 대체로 잘 됐다. 그렇게 하지 말라고 시켜도 부득부득 해대던 "인증 헤더 URL 인코딩" 실수는 여전히 종종 하긴 하지만.

 

그런데 가끔씩은 또 이런 짓을 한다...
 

 

이런 비서가 실물 사람으로 있었으면, 당장 해고감 아닐까? 어떻게 일을 믿고 맡겨~

 

 

- 다음에 계속 -

 

 



Posted by 떼르미
,


자바스크립트를 허용해주세요!
Please Enable JavaScript![ Enable JavaScript ]