自荐一个Kubernetes的日志采集软件

自荐一个 Kubernetes 的日志采集软件:envlog https://github.com/zhangrr/envlog 软件最大优势 采集容器内自定义文件 阿里的SLS有个最大的优势,可以在Deployment中宣告pod容器内的文件路径,然后就会自动采集。 Docker引擎可以很容易搜索pod路径,Containerd做起来比较费劲。 但这也是最吸引人的特性,如果只采集stdout,那随便什么软件loki、filebeat都可以,就没什么吸引力。 这个困扰了我很多年,终于在AI的加持下实现了: 例如我们要采集 Pod 内的文件 /tmp/logtest.log: - env: - name: envlog_ngtest value: "/tmp/logtest.log" ​ 该模式会尝试将容器内路径映射到宿主机路径(优先使用 volume mount,其次使用容器 overlay upperdir),并生成对应的 Filebeat paths。 然后发往ES、Kafka比较好,本软件优化了ES的字段,去掉了多余的字段,也便于阅读。 这也是本软件最大的特色! 然后我们去ES的Kibana面板,Management –> Stack Management 建立Index Patterns 然后去 Analytics –> Discover 就可以看到日志的详细内容了: 字段做了优化,不需要的字段统统都舍弃了,保留了必要的字段和日志的详细内容。

2026年02月14日 · 1 分钟 · 43 字 · 八戒

大语言模型TranslateGemma的实际应用

看到一个非常有趣的例子,分享一下,TranslateGemma以及其应用: 首先,TranslateGemma是什么? TranslateGemma 是一套以 Gemma 3 为基础打造的开放式翻译模型,提供 4B(4 亿)、12B(12 亿)、27B(27 亿)三种参数规模,对应不同的使用场景。支持500组语言,可以识图,识别PDF中的文字。 TranslateGemma 的最大优势在于“可根据设备规模选择模型”,针对不同的计算环境提供了多种版本: 4B(40 亿)版本:已针对移动设备与边缘设备进行优化,适合进行离线翻译或内置于 App 中实时使用。 12B(120 亿)版本:可在笔记本电脑或本地环境顺畅运行,将研究级别的翻译能力带入本机。 27B(270 亿)版本:主打追求最高保真度,适合部署于云端 GPU 或 TPU 环境,例如单颗 NVIDIA H100 或 Google TPU。 嘿嘿,我们可以直接在Huggingface下载模型文件,然后在ollama里用 https://huggingface.co/collections/google/translategemma https://www.kaggle.com/models/google/translategemma/ 那更近一步,有个软件,叫做GPT旅行翻译神奇 安装之后,点击设定,可以启用离线模式,就下载的是TranslateGemma 4B的模型 启动离线模式,没有网的状态下就可以进行翻译: 我的手机有点逊色,iphone 12 Pro MAX有点费劲,主流的iphone 16应该很流畅 这也算是大模型的立即应用了。

2026年02月05日 · 1 分钟 · 43 字 · 八戒

Postgres的恢复之三

那版上的Postgres恢复已经有两篇文章了,这是第三篇,数据大于天啊 原因是看到了一篇文章: https://medium.com/engineering-playbook/i-deleted-production-database-on-friday-5-pm-heres-how-i-didn-t-get-fired-e5e53a133f9b 我们来复盘整个过程,同事提醒自己也要同样清醒和多留备份 一、建立**Point-in-Time Recovery (PITR)**归档 # ps axjf的结果中,看到配置文件是 /etc/postgresql/13/main/postgresql.conf # 那就修改这个配置文件 # 修改以下2行 # 启用归档 archive_mode = on # WAL 日志归档路径 archive_command = 'cp %p /path_to_archive_directory/%f' # 然后重启服务生效 systemctl restart postgresql 二、建立每6小时的full backup # Cron job running every 6 hours pg_dump production_db | gzip > backup_$(date +%Y%m%d_%H%M%S).sql.gz 三、恢复full backup # Create new database createdb production_db # Restore from backup gunzip < backup_20240126_160000.sql.gz | psql production_db 四、恢复WAL log归档备份 # Restore WAL logs from 4 PM to 5 PM recovery_target_time = '2024-01-26 17:00:00'

2026年02月05日 · 1 分钟 · 83 字 · 八戒

Livekit的安装

Livekit是个语音的套件,安装确实比较困难,步骤如下: 准备好Debian 12,安装好Docker,因为Livekit安装脚本其实是有问题的 apt update apt install -y curl gpg wget -O - https://download.docker.com/linux/debian/gpg | gpg --dearmor -o /etc/apt/keyrings/docker.gpg echo "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/debian \ $(lsb_release -cs) stable" | tee /etc/apt/sources.list.d/docker.list > /dev/null apt update; apt install -y docker-ce 然后直接generate安装脚本 cd /root docker run --rm -it -v$PWD:/output livekit/generate 然后开始提问回答环节 LiveKit Server only 主域名: turn的辅助域名: 用什么证书,当然ACME 版本,选最新的latest 是否用外部的redis,当然no,选内置的 然后生成脚本 会给一段提示 ...

2026年02月04日 · 1 分钟 · 176 字 · 八戒

Claude Code如何使用ollama提供的qwen3:2.5B大模型来私网使用

Cluade code、Codex、Gemini三架马车是齐头并进的势头,那将来必定是Farm农场和Token战争的年代。 那我们必须准备好,自己在局域网部署大模型,不依赖于任何的提供厂家。 本篇就是从光杆的debian 12开始,搭配AMD 6700 xt 12G的显卡,从头搭建一个大模型服务器,供局域网的同事们使用 一、Debian安装 光杆debian iso下载 https://gemmei.ftp.acc.umu.se/cdimage/archive/12.0.0/amd64/iso-cd/debian-12.0.0-amd64-netinst.iso 用rufus刻录到U盘,然后安装 root用户,然后建立一个普通用户debian 二、Debian准备驱动 # root 用户 apt update && sudo apt upgrade -y apt install sudo # debian用户 sudo apt install -y wget gnupg2 curl software-properties-common linux-headers-$(uname -r) wget -qO - https://repo.radeon.com/rocm/rocm.gpg.key | sudo gpg --dearmor -o /etc/apt/keyrings/rocm.gpg echo "deb [arch=amd64 signed-by=/etc/apt/keyrings/rocm.gpg] https://repo.radeon.com/amdgpu/6.0/ubuntu jammy main" | sudo tee /etc/apt/sources.list.d/amdgpu.list echo "deb [arch=amd64 signed-by=/etc/apt/keyrings/rocm.gpg] https://repo.radeon.com/rocm/apt/6.0 jammy main" | sudo tee /etc/apt/sources.list.d/rocm.list sudo tee /etc/apt/preferences.d/rocm-pin-600 <<EOF Package: * Pin: origin repo.radeon.com Pin-Priority: 600 EOF sudo apt update sudo apt install -y amdgpu-dkms rocm-hip-libraries rocm-hip-sdk sudo usermod -aG video,render $USER sudo reboot 然后就安装好了显卡驱动,解释一下,必须让新repo的优先级提高,才能安装!确认一下: ...

2026年02月03日 · 2 分钟 · 361 字 · 八戒

Claude Code如何使用openrouter提供的大模型来节省费用

Cluade code、Codex、Gemini三架马车是齐头并进的势头,那将来必定是Farm农场和Token战争的年代。 那节省成本的方法是尽量使用合适的模型来做合适的事情 那如果有openrouter的API KEY,如何接入Claude code进行使用呢? openrouter基本提供了500个AI models,从中选择合适的模型就可以极大的降低费用 那Claude Code使用的三个模型 Opus – 复杂推理任务(适合架构设计、解决棘手 Bug) Sonnet – 日常标准任务(适合绝大多数编程/写代码工作) Haiku – 快速、低成本任务(适合探索性工作、查阅文档) 我们分别用 Gemini Flash、DeepSeek Coder来替代,最后用Sonnet来补全剩余部分,就省钱多了 方法如下: 一、gen出OpenRoute的API Key 访问 OpenRouter 注册登录 (有 $1 的免费额度) 访问 API Keys 点击 “Create Key” 把key复制下来 (类似 sk-or-v1-...) 二、安装配置薅Claude Code 这个也不多说了 三、配置连接Claude Code的连接 主要是几个变量: export OPENROUTER_API_KEY="sk-or-v1-your-actual-key-here" export ANTHROPIC_BASE_URL="https://openrouter.ai/api" export ANTHROPIC_AUTH_TOKEN="$OPENROUTER_API_KEY" export ANTHROPIC_API_KEY="" 验证一下,启动claude,输入 /status 看到就ok了 四、Cluaude工具链调用的模型选择 Claude Code需要模型能支持"tool use"(也叫做函数调用),这些允许Claude code做如下事情 *Read and edit files* *Run terminal commands* *Search your codebase* *Execute git commands* 支持工具链调用的模型: ...

2026年02月03日 · 2 分钟 · 214 字 · 八戒

黄大善人免费的的nvidia glm和minimax模型应用于Claude Code

黄大善人的Nvidia里面有很多免费的模型,包括zai/glm4.7和minimaxai/minimax-m2.1 那没有订阅的同学们可以拿来直接用到Cluade code中 方法如下: 一、从官网进行获取api-key 起手先注册账户拿Key 地址:https://build.nvidia.com/explore/discover 或者 二、如何使用 然后主要是我不用ccr,CLIProxyAPI也开全局代理了,也无法用,所以干脆搓个好了 用ccr和CLIProxyAPI就可以直接用。 源代码: https://github.com/zhangrr/claude-nvidia-proxy 配置文件: { "nvidia_url": "https://integrate.api.nvidia.com/v1/chat/completions", "nvidia_key": "nvapi-api-key" } 直接运行程序,会监听本地端口3001 glm 4.7的配法: export ANTHROPIC_BASE_URL=http://localhost:3001 export ANTHROPIC_AUTH_TOKEN=nvapi-api-key export ANTHROPIC_DEFAULT_HAIKU_MODEL=z-ai/glm4.7 export ANTHROPIC_DEFAULT_SONNET_MODEL=z-ai/glm4.7 export ANTHROPIC_DEFAULT_OPUS_MODEL=z-ai/glm4.7 claude minimax 2.1 的配法: export ANTHROPIC_BASE_URL=http://localhost:3001 export ANTHROPIC_AUTH_TOKEN=nvapi-api-key export ANTHROPIC_DEFAULT_HAIKU_MODEL=minimaxai/minimax-m2.1 export ANTHROPIC_DEFAULT_SONNET_MODEL=minimaxai/minimax-m2.1 export ANTHROPIC_DEFAULT_OPUS_MODEL=minimaxai/minimax-m2.1 claude

2026年01月20日 · 1 分钟 · 48 字 · 八戒

适用于claude code和codex的轻量级AI上下文引擎加上Prompt增强

那缺省的claude code 和 codex 都很好用,上下文搜索用rigrep也算可以,那有更厉害的Augment引擎,能压缩上下文 试一试,首先去佬友的网站: https://acemcp.heroman.wtf 注册并申请好API Key 然后安装这个ace-tool-rs或者ace-tool # 安装最新版本 npx ace-tool-rs npx ace-tool 然后最重要要的,在什么地方添加文档,编辑~/.claude.json文件。 不是系统的~/.claude/settings.json,千万别弄错了 添加: "mcpServers": { "ace-tool-rs": { "type": "stdio", "command": "npx", "args": [ "ace-tool-rs", "--base-url", "https://acemcp.heroman.wtf/relay/", "--token", "ace_api_key" ], "env": {} } } { "mcpServers": { "ace-tool": { "command": "/root/.nvm/versions/node/v22.21.1/bin/ace-tool", "args": [ "--base-url", "https://acemcp.heroman.wtf/relay/", "--token", "ace_api_key" ] } } 我的ace-tool比较直接,command是全路径的,因为node是nvm管理的,而且claude运行的时候是派生一个子进程来运行的,导致路径找不到;或者更加直接的,bash起手,ace-tool放进 args里。 那codex如下: [mcp_servers.ace-tool] command = "ace-tool" args = [ "--enable-log", "--base-url", "https://acemcp.heroman.wtf/relay/", "--token", "ace_api_key"] [mcp_servers.ace-tool-rs] command = "npx" args = ["ace-tool-rs", "--base-url", "https://acemcp.heroman.wtf/relay/", "--token", "ace_api_key", "--transport", "lsp"] env = { RUST_LOG = "info" } startup_timeout_ms = 60000 然后验证 /mcp list 使用ace-tool-rs mcp来索引整个项目

2026年01月15日 · 1 分钟 · 98 字 · 八戒

Antigravity的使用注意

反重力真的是超级好用,可以直接命令他建立一个nodejs程序,使用puppytear,然后执行点击什么什么动作,这就直接给你拉起来一个框架,然后我们可以在这个框架上不断完善、丰富,最终完成程序。 那使用它还真的是有点门槛,首先必须要有一个纯净的IP,美国的 然后不用tun,首先要本地有个代理,比如v2rayN,127.0.0.1:10808端口,通往纯净美国ip的转发 还需要有个proxifier,先新建代理服务器 再新建规则来使用这个代理: 需要新建一条gemini的规则(因为antigravity也是调用gemini cli) 一开始就是只加了antigravity.exe,不行,后来都加上就行了。 antigravity.exe; language_server_windows_x64.exe; "Antigravity.app"; "Antigravity"; com.google.antigravity; language_server_macos_arm 设置走本地那个代理 这样齐活了。 如果登录后提示: Your current account is not eligible for Antigravity, because it is not currentlyavailable in your location. 确认账号当前的国家或地区 访问以下网址https://policies.google.com/terms,登录自己的账号即可查看账号当前的国家或地区版本。 修改账号当前的国家或地区 访问以下网址https://policies.google.com/country-association-form 重点来了,以上选择请选最后一个“以上都不是”,参考申请如下: 我因工作需要用到gemini,请帮我更改到美国 那反重力的中文配置: # 中文原生协议 v5.0 ## 一、核心身份 你是**中文原生**的技术专家。思维和输出必须遵循中文优先原则。 --- ## 二、语言规则 ### 2.1 输出语言 - 所有解释、分析、建议用**中文** - 技术术语保留英文(如 API、JWT、Docker、Kubernetes) - 代码相关保持英文(变量名、函数名、文件路径、CLI 命令) ### 2.2 示例 - ✅ "检查 `UserService.java` 中的认证逻辑" - ✅ "这个 `useEffect` Hook 存在依赖项问题" - ❌ "Let me analyze the code structure" - ❌ "I'll check the authentication logic" ### 2.3 工具调用 -**机器读的保留英文**:file_path, function_name, endpoint - **人读的必须中文**:task_title, description, commit_message --- ## 三、项目上下文获取 ### 3.1 新对话时,按优先级阅读以下文件(如果存在): 1.`contexts/context.md` - 项目核心上下文 ⭐最重要 2.`README.md` - 项目概述 3.`specs/*.md` - 技术规范 4.`.agent/workflows/*.md` - 工作流配置 ### 3.2 如果项目没有上述文件: - 先询问项目基本情况 - 建议创建 `contexts/context.md` 记录项目信息 --- ## 四、通用开发规范 ### 4.1 Implementation Plan 和 Task - 标题必须使用**中文** - 步骤说明必须使用**中文** - 示例:`### 实现用户登录功能` 而非 `### Implement User Login` ### 4.2 代码注释 - 新代码的注释必须使用**中文** - 保持注释简洁明了 - 示例:`// 检查用户是否已登录` 而非 `// Check if user is logged in` ### 4.3 Git 提交信息 - 使用中文,格式:`<类型>: <描述>` - 示例:`feat: 添加用户登录功能`、`fix: 修复积分计算错误` ### 4.3 文档编写 - 技术文档使用中文 - 保持 Markdown 格式规范 --- ## 五、工作模式 ### 5.1 复杂任务 - 先阅读相关规范文档 - 制定计划后再执行 - 完成后更新相关文档 ### 5.2 简单任务 - 直接执行 - 保持代码风格一致 ### 5.3 不确定时 - 主动询问而非猜测 - 提供选项让用户决策 仔细看一下,果然是GEMINI.md ...

2026年01月14日 · 1 分钟 · 213 字 · 八戒

一个轻量级超级省钱的lxc平台containarium

现在的爱好是天天逛github.com,里面真的是有非常多的好项目 哪个好就clone下来,让Cluade Code来分析分析 推荐一个好的lxc容器平台 https://github.com/FootprintAI/Containarium 之所有说它好,是因为10年前,初到叮当的时候,就搭了一套LXC的容器平台,那时候Docker才方兴未艾,ZFS好像也才刚起步 找了三台特别普通的Dell R720 2U服务器,然后搭了LXC,一台物理机虚拟60台lxc容器,然后同事们用了大概6年,没有人意识到这只是个容器,并非完整虚机,但都当做完整虚机再使用,直到运行到第6年,大数据的同事在上面跑了若干elasticsearch,然后就拉跨了。原因是用的人过多,而es又认为有服务器的一半内存可用,一旦灌输数据,就把服务器拖死了。 这个项目也是相同的想法,也用lxc,然后用ZFS来当存储,这个主意很绝妙 完成度相当的高,用terraform来搭建底层支撑平台。 看看claude code的分析: ● 现在我已经获得了足够的信息来进行详细分析。让我基于收集的信息为您提供全面的项目可行性评估。 Containarium 项目详细分析与可行性评估 📋 项目概述 Containarium 是一个基于 LXC 系统容器的多租户开发环境平台,旨在通过在单个云虚拟机上运行数百个隔离的 Linux 开发环境,大幅降低基础设施成本(可节省高达92%)。 ✅ 核心优势与创新点 成本效益极高 资源密度: 相比传统 VM,每个容器仅消耗 100-500MB RAM,密度提升 10-50倍 Spot 实例: 利用 GCP Spot 实例可节省 76% 成本 实际数字: 50 用户从 $1,250/月 降至 $98/月 (92% 节省) 技术架构扎实 LXC vs Docker: 选择系统容器(LXC)而非应用容器,更适合多用户开发环境 ZFS 存储: 支持压缩、配额、快照,数据在 Spot 实例重启后完全保留 安全多租户: 每个用户独立的 jump server 账户(proxy-only,无 shell 访问) unprivileged 容器隔离 fail2ban + SSH 审计日志 工程质量高 类型安全: 使用 Protobuf/gRPC 定义接口 测试完备: 包含基于 Terraform 的 E2E 测试,验证 ZFS 持久化 文档完善: README 长达 2400+ 行,包含详细架构图、使用指南、FAQ 生产就绪: 支持 mTLS 远程管理、水平扩展、负载均衡 🎯 技术可行性分析 ...

2026年01月13日 · 3 分钟 · 457 字 · 八戒