Skip to content

Hello-AI



Hello-AI Core

📊 项目统计

此项目已从互联网搜罗并收录了大量 AI 相关的优质开源项目,概况如下:

  • 📁 合计收录:17017 个项目
  • 活跃展示:7923 个项目 (仅限最近 6 个月有活跃更新记录)
  • 🏷️ 分类概览 (活跃 / 总数)
    • 🔥 热门推荐:30 / 30
    • 🧠 基础大模型:130 / 523
    • 🤖 智能体与编排:1094 / 1399
    • 🔍 RAG与检索:361 / 578
    • ☁️ 基础设施与部署:832 / 1377
    • 🔧 微调与训练:338 / 862
    • 👁️ 多模态与音视频:791 / 2469
    • 🛠️ 开发工具与SDK:1734 / 2994
    • 🎨 AI终端应用:742 / 1401
    • 📚 学习与资源:1114 / 3897
    • 💻 桌面与操作系统级应用:227 / 314
    • 🦾 机器人与物联网:423 / 947
    • 💼 商业与量化:149 / 288
  • 📅 最后更新:2026-04-08

概述

Hello-AI 是一个智能、驱动型的 AI 开源项目全景导航

在 AI 技术日新月异的今天,面对 GitHub 上浩如烟海的开源项目,开发者往往面临“信息过载”的困扰。Hello-AI 旨在通过 AI 代理(AI Agent)自动化技术,为你从全球开源社区中筛选、评估并组织最优质的 AI 资源。

✨ 项目特色

  • 🤖 全自动智能运维:不同于传统导航的人工维护,本项目利用 AI 代理实现 24/7 不间断的项目发现、自动打标与质量筛选。真正做到“用 AI 发现 AI”。
  • 🗺️ 实时演进的全景地图:深度覆盖基础大模型、智能体编排 (Agent)、RAG、基础设施、多模态应用、开发利器等核心赛道,分类精准且直观。
  • 🔄 动态活跃追踪:系统自动剔除长期不更新的“僵尸”项目,动态同步 Star 数与更新状态,确保目录始终鲜活、高质量。
  • 秒读项目价值:AI 自动为每个库提炼核心摘要与应用场景,助你省去繁杂的阅读成本,瞬间锁定目标工具。

这里是你探索 AI 边界、寻找提效利器的快捷入口。

🏗️ 架构与执行逻辑

本项目完全依靠自动化脚本与大语言模型协同工作。以下是系统的可视化运行架构图,展示了从数据发现到前端渲染的完整数据流向:

mermaid
graph TD
    classDef default fill:#f9f9f9,stroke:#e0e0e0,stroke-width:1px;
    classDef database fill:#e1f5fe,stroke:#4fc3f7,stroke-width:2px;
    classDef ai fill:#fff3e0,stroke:#ffb74d,stroke-width:2px;
    classDef process fill:#e8f5e9,stroke:#81c784,stroke-width:2px;
    
    subgraph Discovery [1. 探索发现层 - Discovery]
        T[(topics.json<br/>知识主题池)]:::database -->|提供轮询关键词| Fetch[GitHub 检索脚本]:::process
        Fetch -.->|反向扩充未记录新主题| T
        Fetch -->|高星级项目入库| Q[(pending-projects.json<br/>待审队列)]:::database
    end

    subgraph Evaluation [2. AI 评估层 - Evaluation]
        Q -->|一次提取 N 个项目| P[Batch 合并提词]:::process
        DB[(projects.json<br/>核心项目库)]:::database -.->|提供最新动态大/小类| P
        P --> LLM((LLM 大语言模型<br/>打标 / 摘要 / 分类)):::ai
        LLM --> Condition{AI 评分与判决}
    end

    subgraph Storage [3. 数据隔离层 - Storage]
        Condition -->|不相关或过差项目| R[(rejected-projects/<br/>审计垃圾桶)]:::database
        Condition -->|合格的高质量项目| DB
    end

    subgraph Frontend [4. 视图呈现层 - Views]
        DB -->|全动态映射注入| Vite[VitePress Nav与Sidebar]:::process
        DB -->|按 Subcategory 聚合| Gen[generate-docs.js 生成器]:::process
        Vite --> Site([🌍 Hello-AI 网站入口])
        Gen -->|输出各分类下 Markdown| Site
    end

其核心运行机制、闭环数据流与系统架构概况详细如下:

1. 动态自演进的数据发现层 (Discovery)

  • Topic 动态挖掘: 借助 data/topics.json 中定义的主题种子列表,抓取引擎会按“最久未探索”的维度轮询 GitHub API 检索 Stars >= 500 的新仓库。
  • 知识库自生长: 当从爬取的项目中发现未曾见过的新 Topic,系统会自动将其登记进 topics.json 并标记为级别2(次级探索目标)。
  • 待处理队列: 发现的所有高可用全新仓库,都会流向待定池 data/pending-projects.json 准备受审。

2. 本地/云端 AI 批处理评估层 (Evaluation)

  • 并发批量过审引擎: 核心脚本 discover-and-evaluate.js 每次从待审池抽取定量批次(可通过环境变量 EVALUATE_BATCH_SIZE 配置,比如一次评价 5~10 个)构建出合并 Prompt 交给 LLM。这种批处理设计能复用 Token 与上下文,规避频繁的接口频率限制。
  • 动态分类路由: 系统绝不“硬编码”任何分类枚举。每次评估前都会动态读取主库 data/projects.json 中配置的有效 categories 与其子分类(Subcategories),将其注入 Prompt 指导 AI 做出归类。
  • 打标与审计: AI 自动生成短评、标签、大类小类标记并写入主数据流。对于不合格的、AI 判定无意义或无法对应分类的项,将被记录到专门的 data/rejected-projects/ 隔离审计库之中。
  • 客观热门榜单: 每日客观计算,强制重算最近更新、Star最高的头尾 30 名项目,自动将其覆盖到 🔥 热门推荐 中。

3. 前端自动化渲染与视图解耦 (View Generation)

  • 轻量级自适应路由呈现: 本项目采用 VitePress 框架构建,其 Navbar (nav) 与 Sidebar (sidebar) 被完全改写为动态读取。当 projects.json 发生分类变动时,会自动抽取极简版的 categories.json 供前端导航按需加载。这既避免了由于大 json 造成的前端极慢解析,又能毫无迟滞地将最新分类精准呈递进前端侧边栏,避免数据与 UI 产生的视图错乱。
  • 智能 Markdown 小类折叠与过时清理generate-docs.js 会自动遍历大类,并在生成各个大类文档页时,根据项目归属的 subcategory 将项目智能分组。同时,它会根据 RECENCY_THRESHOLD_MONTHS 配置自动剔除长期未更新的项目,确保文档的实效性与整体质量。

4. 自动化驱动引擎 (Automation Process)

  • 为了追求无人值守的完美流线(比如规避访问限流),您可选用 scripts/loop-eval.js 等进程守护型执行器,通过内置的 Sleep 等轮询机制,长期维持 发现 -> 暂存 -> AI评估 -> 静态页打包 面向开源大海的探索闭环。

🚀 本地部署与运行指南

完全欢迎您在本地自己跑通这套基于大模型自动扩展整理的分类知识库。非常容易上手:

1. 环境准备与依赖安装

需要 Node.js 环境(推荐 18.x 及以上版本)。

bash
git clone https://github.com/xxxily/hello-ai.git
cd hello-ai
npm install

2. 环境变量配置

复制一份环境配置模板并修改:

bash
cp .env.example .env

用编辑器打开 .env 调整以下核心参数:

  • GITHUB_TOKEN= (强烈建议配置):搜索限流极高,不置为空很容易触发限流风控。
  • LLM_API_KEY=:你的 大语言模型 API Key(用于分析和筛选项目)。
    • 💡 零成本本地提示:如果你在使用本地部署大模型(如 Ollama + llama3),可以将其设为 local-fallback
  • LLM_PROVIDER=:选择内置供应商预设(openaiminimaxdeepseekollama)。省略时会根据 LLM_BASE_URL 或对应的 API Key 环境变量自动检测。
  • LLM_BASE_URL=:API转发地址(例如:https://api.openai.com/v1 或 本地 http://127.0.0.1:11434/v1)。
  • LLM_MODEL=:要执行推理的模型名字(如 gpt-4o-miniMiniMax-M2.5)。
  • DISCOVER_BATCH_SIZE / EVALUATE_BATCH_SIZE / UPDATE_STATUS_BATCH_SIZE:控制每次探索拉取的个数、一次批量合并扔给 AI 判断的项目个数,以及状态更新时的批处理大小。
  • LOOP_INTERVAL_SECONDS: 可调整 ai:loop-eval 循环模式每次休息的打底时间(默认 60 秒)。
  • MAX_PAGES_DEFAULT: 每个话题默认探索的最大页数(默认:5)。
  • MAX_PAGES_QUALITY: 高质量话题探索的最大页数(默认:20)。
  • QUALITY_TOPIC_THRESHOLD: 判定为高质量话题的分数阈值(默认:5)。
  • AUTO_FETCH_DESC_STARS: 自动获取缺失描述的 Star 阈值(默认:1000)。
  • RECENCY_THRESHOLD_MONTHS: 文档生成时保留最近多少个月有更新的项目(默认:24,即 2 年)。

支持的 LLM 供应商

评估引擎支持任何 OpenAI 兼容 的 LLM API,内置预设可方便切换:

供应商LLM_PROVIDER默认模型API Key 环境变量
OpenAIopenaigpt-4o-miniOPENAI_API_KEYLLM_API_KEY
MiniMaxminimaxMiniMax-M2.5MINIMAX_API_KEYLLM_API_KEY
DeepSeekdeepseekdeepseek-chatDEEPSEEK_API_KEYLLM_API_KEY
Ollama (本地)ollamallama3不需要(使用 local-fallback

MiniMax 快速上手:

bash
LLM_PROVIDER=minimax
MINIMAX_API_KEY=your-key-here
# 可选指定模型:
# LLM_MODEL=MiniMax-M2.7

3. 开始执行自动化作业

您可以按照需求来跑跑脚本:

  • 单次试运行
    bash
    npm run ai:discover-eval
  • 开启无人守护循环模式 (推荐用于长久维护,持续探索+分类):
    bash
    npm run ai:loop-eval
  • 开启 TUI 交互配置循环模式 (推荐,可视化选择参数):
    bash
    npm run ai:loop-eval-tui
  • 后台增量更新 Star 数与存活状态 (拉取库内项目进行信息修正):
    bash
    npm run ai:update-status
  • 重置所有分类并重新评估 (这会将 projects 移回 pending 队列,方便新老标准对齐):
    bash
    npm run ai:re-evaluate-all
  • 快速消耗完待审队列并自动退出 (跳过发现环节,适合配合上面的重置操作,不触发 GitHub API 请求风控):
    bash
    npm run ai:consume-queue
  • 单独提取轻量级分类数据 (用于前端导航与侧边栏渲染,注意该脚本在执行更新后通常会自动触发):
    bash
    npm run ai:extract-categories

💡 进阶参数说明 (Advanced CLI Flags)

在执行 npm run ai:discover-eval 或其变体时,可追加以下参数:

  • --sort-topic-by=quality|time:
    • quality: 优先探索质量评分(基于已收录项目数)最高的主题。
    • time: 优先探索最后探索时间最久远的主题。
  • --topic-order=asc|desc: 排序方向(默认质量降序/时间升序)。
  • --consume-only: 仅从本地队列评估,不向 GitHub 发起新搜索。
  • --resume: 恢复上次探索进度,从记录的主题和页码继续。
  • --update-only: 仅更新现有项目统计信息,跳过 LLM 评估阶段。
  • --init-topics: (仅限初始化) 根据 projects.json 已有数据重新初始化 topics.json 的质量评分。

4. 动态生成页面与本地阅览

等待 AI 完成打标写档后,可以一键将数据变回网站!

bash
# 根据 projects.json 数据,生成各个大类的文档归组 Markdown
npm run ai:generate-docs

# 启动本地 VitePress Web 服务器(比如: 实时预览分类和数据)
npm run docs:dev

# 发布静态化预编译站点 (产出于 docs 目录下)
npm run docs:build

🌟 探索 AI 项目

请通过本站的系统导航,浏览这片由 AI 自动为你精选的开源代码绿洲。 我们的爬虫和打分模型会定期搜罗 GitHub 上的热门项目,保持这份目录的鲜活度!

交流群

AI闲聊群,部分群组提供直接跟AI对聊的体验服务,可和更多志同道合的人交流讨论。

加电报群(Telegram)加微信群(需注明:进AI群)

微信群不注明要进群,则不会邀你入群,避免给你造成信息骚扰
电报群地址:https://t.me/auto_gpt_ai