Tìm hiểu và cài đặt OpenClaw - phần mềm trợ lý AI (agent) trên máy tính cá nhân

(26/02/2026)

OpenClaw là một phần mềm máy tính, với chức năng trợ lý AI tự động (autonomous AI agent), mã nguồn mở, chạy trên máy tính cá nhân có hệ điều hành Windows/Linux/iOS.
Chức năng cơ bản của nó:
*Kết nối API: với các ứng dụng/dịch vụ có cung cấp API giao tiếp như: dịch vụ  AI ChatGPT, Claude, Gemini..; các ứng dụng liên lạc như Telegram/WhatApp/Zalo..; các ứng dụng như email Gmail, đặt lịch Google Calendar..
*Điều khiển máy tính: di chuột, gõ phím như người sử dụng máy tính (mở web, điền form, trích dữ liệu..); chạy tự động các ứng dụng trên máy như cài đặt driver, sao chép tệp, chạy script.. 

Ví dụ kịch bản hoạt động thực tế sau khi cài đặt hoàn chỉnh:
*Từ xa bạn nhắn tin vào nick zalo/telegram đã cài cho OpenClaw chạy trên máy ở nhà (VD: thời tiết hôm nay thế nào/hãy đặt lịch họp lúc 9h sáng..)
*OpenClaw nhận được lệnh, nó kết nối với dịch vụ AI (ChatGPT, Claude, Gemini..) để hiểu bạn muốn làm gì
*OpenClaw tự quyết định thực hiện: kết nối API lên dịch vụ AI để lấy thông tin, gọi API thực hiện lọc gửi tóm tắt email, hay tự sử dụng phần mềm máy tính - chạy tác vụ script cài máy tính..
*OpenClaw sẽ báo kết quả sau khi thực thi bằng tin nhắn lại cho bạn

Các khía lưu ý về OpenClaw:
*Hoạt động cục bộ: Nó chạy trên phần cứng của riêng bạn, cung cấp khả năng bảo mật dữ liệu cao hơn so với các dịch vụ dựa trên đám mây.
*Tác nhân tự động: Không giống như AI dựa trên trò chuyện, nó có thể thực hiện hành động, thực thi mã và hoạt động liên tục, thường được gọi là "AI có tay".
*Tích hợp và khả năng mở rộng: Nó kết nối với các nền tảng như Discord, Slack và Telegram, và cho phép người dùng tải xuống "kỹ năng" (kịch bản) từ kho lưu trữ trung tâm có tên là ClawHub.
*Cảnh báo bảo mật: Vì nó hoạt động với quyền truy cập cấp cao vào các tệp cục bộ và lệnh hệ thống, nó tiềm ẩn các rủi ro nếu AI bị thao túng, vì nó có thể bị lừa để thực thi các lệnh độc hại.
*Tốn tiền: vì OpenClaw sử dụng dịch vụ AI (ChatGPT, Gemini..) nên sẽ tốn tiền - vì dịch vụ miễn phí thường giới hạn sử dụng, mỗi lần truy xuất hỏi AI đều tính phí. Có thể cài đặt dịch vụ AI Offline như dùng các phần mềm LM Studio, Ollama,.. chạy các model AI thu gọn offline làm cung cấp dịch vụ AI cho OpenClaw, nhưng thường đòi hỏi dùng máy tính cấu hình cao - nhiều RAM - card đồ họa NVidia đắt đỏ.

Hướng dẫn cài đặt OpenClaw

*Máy tính cá nhân cấu hình bình thường, chạy Windows 10/11 - Linux Ubunto 24/LinuxMint
*Với máy chạy Windows 10/11 thì phải cài Linux giả lập cho máy, không cài OpenClaw trực tiếp trên Windows vì rất nhiều lỗi vặt trong quá trình cài và sử dụng.

Cài đặt OpenClaw trên Linux

sudo apt install curl
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --no-gum

Kết nối dịch vụ AI - sử dụng OpenRouter

*Truy cập OpenRouter, đăng ký để lấy API_KEY
*Chạy lệnh
openclaw onboard --auth-choice apiKey --token-provider openrouter --token "API_KEY"
*Lệnh thay đổi model (model trong ví dụ dùng được free để thử nghiệm trước đã, đa phần các model khác phải đăng ký trả tiền)
openclaw models set openrouter/_MODEL_ (VD: openclaw models set openrouter/stepfun/step-3.5-flash:free)

Kết nối Teletegram

*Tạo bot telegram để lấy _HTTP_API_ token từ BotFather
*Xác định telegram _ID_ từ (User Info * Get ID * IDbot)
*Sử dụng lệnh (openclaw onboard) để chạy wizard cài đặt, đến phần Telegram thì nhập vào.

Một số lệnh của OpenClaw

openclaw onboard --install-daemon
openclaw gateway stop
openclaw gateway start
openclaw gateway restart
openclaw gateway run

Thiết lập để OpenClaw sử dịch vụ AI cục bộ bởi LMStudio + Model AI (trên cùng máy hoặc ở mạng LAN)

*Sửa trong tệp openclaw.json nằm trong thư mục chứa openclaw (thường là home/oem/.openclaw, có thể bị ẩn trong file explorer)
*Ví dụ: máy chạy LMStudio có địa chỉ IP là 192.168.1.1, đã bật chế độ Local Server, cổng 1234; sử dụng model AI liquid/lfm2.5-1.2b
*Thêm phần "models" và khai báo tương ứng trong phần "agents" -> openclaw gateway restart để chạy lại nạp thay đổi "models": {
"mode": "merge",
  "providers": {
  "openai": {
  "baseUrl": "http://192.168.1.1:1234/v1",
  "apiKey": "lmstudio",
  "api": "openai-completions",
  "models": [{ "id": "liquid/lfm2.5-1.2b", "name": "liquid/lfm2.5-1.2b" }],
  },
 },
},
"agents": {
"defaults": {
"model": {
"primary": "openai/liquid/lfm2.5-1.2b"
},
"models": {
"openai/liquid/lfm2.5-1.2b":{},
"openrouter/stepfun/step-3.5-flash:free": {},
},
..
Lưu ý
*các vị trí có giá trị "openai" -> đó là trick để chạy được, nếu không có thể lỗi "Connection error"
*khi load model thì context length cần đặt tối đa để hạn chế gây lỗi thiếu ngữ cảnh. OpenClaw được cấu hình để dùng tối thiểu model 16B nên các model nhỏ hơn tốn nhiều thời gian để xử lý các prompt của OpenClaw và thường hay bị crash. Chat trực tiếp trên giao diện của LMStudio/Ollama với các model nhỏ 4b có thể ổn và mượt, nhưng khi truy xuất vẫn model đó từ OpenClaw có thể hay bị crash hoặc cực kỳ lâu.

Hầu hết các mô hình cục bộ nhỏ (7b-8b) không thể xử lý định dạng gọi công cụ của OpenClaw một cách đáng tin cậy. OpenClaw gửi một lời nhắc hệ thống lớn với các định nghĩa công cụ và nếu mô hình không thể phân tích cú pháp/trả lời chúng một cách chính xác, bạn sẽ nhận được tin nhắn rác TTS hoặc các phản hồi trống mà bạn đang thấy.
Một vài điều thực sự hữu ích:
1. Sử dụng api: openai-chat thay vì openai-completions — API chat là những gì OpenClaw mong đợi để sử dụng công cụ
2. Đặt reasoning: false trừ khi mô hình của bạn thực sự hỗ trợ lập luận có cấu trúc (qwen2.5 7b thì không)
3. Tắt TTS — thêm tts: { enabled: false } vào cấu hình của bạn để dừng spam MEDIA
4. Kích thước mô hình quan trọng — lời nhắc hệ thống của OpenClaw một mình đã ~4-6K tokens. Với các định nghĩa công cụ, nó có thể đạt 10K+. Một mô hình 7b gặp khó khăn với bối cảnh đó. qwen3:8b hoặc tốt hơn là một mô hình 14b+ hoạt động tốt hơn nhiều.
5. Xóa workspace của bạn BOOTSTRAP.md và các tệp phiên sau khi chuyển đổi mô hình — các phiên lỗi thời từ lần chạy Gemini có thể gây nhầm lẫn cho mô hình cục bộ.
Thành thật mà nói, cấu hình là phần khó nhất của OpenClaw. Có thể dùng công cụ tại latticeai.app/openclaw xử lý tất cả nỗi đau JSON — tạo ra gói đầy đủ bao gồm các cài đặt mô hình thích hợp. Nhưng đối với thiết lập cục bộ thuần túy, bản sửa lỗi số 1 là chuyển sang một mô hình lớn hơn xử lý các cuộc gọi công cụ. qwen2.5:14b-instruct hoặc mistral-nemo hoạt động tốt hơn đáng kể.

 

Gửi ý kiến của bạn