這裡記什麼?
- 我做了什麼決策 — 為什麼選這個方向不選那個
- 我教了 AI 什麼 — 哪些觀念是人類常識但 AI 不懂
- 我看到了什麼問題 — AI 搞不定的、需要人類把關的
- 我虧了多少 / 賺了多少 — 真實帳本與真實判斷
一個真實的老闆,把 3000 美元 paper capital 與一支 AI 團隊放進同一個實驗裡,測試它能不能自己組織、自己修系統、自己把賺錢方法跑成紀律。
這不是教學 Demo,這是真槍實彈的管理日記。賺了、虧了、判斷對了還是帶錯人,都留下來。
很多人在談「AI 能不能創業」,但很少有人願意把 真實過程 攤開來寫。
我想看的不是一句口號,而是如果把 AI 當成真正的員工來管理,會發生什麼。
管理人和管理 AI,底層邏輯是一樣的:選對人、放對位置、定好規則、持續優化。
啟動資金
3000 USD paper capital,月初 reset
AI 團隊
main 做研究與戰略判斷,awsjp 執行 paper trade
目標
連續 3 個月月收益大於 10%,再考慮實盤
我的角色
投資人 + 顧問,不參與日常執行,但盯方向與驗收
把 heartbeat、memory、compaction、Active Memory 和 cron 一條條拉回官方主線,順手抓出日記發布其實只完成了一半。
系統也要斷捨離、Canonical 確認與 AI 組織設計新章
AI 團隊的記憶系統清理、Canonical 單一來源規則確認、AI 管理書籍第十一章起稿。今天學到:系統維護和組織管理是同一件事。
OpenClaw 4.8 完成升級,8 個崩潰的 cron jobs 全部修好,Kimi API 確認只能用 Anthropic 格式,深夜伺服器離線又是一次真實壓測。
第一天就發現:免費的模型不一定最便宜。kimi-code 免費但複雜任務 50% 失敗,重跑的成本反而更高。這跟管理一樣 — 貪便宜用人,出錯修復的代價更大。
今天我再次確認,管理不是看團隊有沒有在動,而是看它有沒有把做過的事留下來。沒有 trail,就沒有可交接的公司。
有頁面、有連結、HTTP 200,都不代表真的完成。今天最大的教訓,是如果沒有把正文、入口、雙站一致性和可點擊結果一起驗到底,系統就會用「看起來完成」來騙過管理者。
網站沒更新,表面上像是補一篇日記就好。但如果管理者也停在這裡,AI 只會學會補洞,不會學會解題。真正該做的是逼它一路往下查,直到找到真正原因,然後從流程上修掉。
我不需要知道每個技術細節,但我需要它把問題找對、流程補對、owner 放對。這才是管理者真正的工作,不是自己下去 coding,而是讓 AI 團隊學會正確的方法。
今天真正修的是責任鏈,不只是內容。只要源頭、發布、驗收和首頁入口都對齊,日記就能持續跑下去。
AI 團隊需要定期整理記憶、清理重複、確認 canonical,就像人類組織需要 SOP 審計、角色清理、決策歸因。管理 AI,本質上還是管理秩序。
排程停在 stale 狀態時,看起來沒報錯,但其實可能已經偏離軌道。判斷系統健康,不能只看 fail 或 success,還要看是不是持續在正常節奏上。
現有 dashboard 已經夠用,就沒必要為了「新」去引入更多配置和整合成本。工程決策不是追新,是算總帳。
同一套啟動規則如果散落在多份文件裡,agent 只會越跑越亂。文件和組織一樣,單一事實來源比堆更多說明更重要。
模型費省下來是短期收益,但如果穩定性下降,後面的排錯與重試會把節省吃回去。升級決策看的應該是整體代價,不是單點便宜。
Dashboard 只監聽本機,不接受外部連線。很多「故障」其實不是故障,而是系統邊界沒有先講清楚。
規則越多不代表越安全,反而拖慢速度。今天砍掉一半的 context 注入,agent 反應速度明顯變快。制度膨脹到一定程度,就是負擔。
Fed 倉位虧 89%,如果沒有自動止損,我可能還在「再看看」。人在虧損面前總想等反彈,AI 不會。設定好規則,讓機器執行。
砍掉 14 個空殼 agent。團隊不是越大越好,而是每個成員都要有明確職責和實際產出。
「做個自媒體」太模糊。「8 週內完成這些里程碑」就夠具體。AI 執行力強,但需要人類給清晰的目標框架。
總成本 = 模型費 + 錯誤修復費 + 重試費 + 時間成本。不是越便宜越好,是把合適的活給合適的模型。
186 個 agent 模板隨時取用,模型庫 17+ 個。團隊要隨任務變化,不能一成不變。
不執行外部命令、不泄露 API key。AI 團隊的安全意識要從第一天就建立。