news 2026/5/9 20:48:33

开源情报工具Crystal-Claw:自动化OSINT收集与关联分析实战

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
开源情报工具Crystal-Claw:自动化OSINT收集与关联分析实战

1. 项目概述:从“水晶之爪”看开源情报工具的演进

最近在GitHub上看到一个挺有意思的项目,叫“advancescout/crystal-claw”。光看名字,你可能觉得这像是个游戏模组或者某种艺术创作。但点进去一看,会发现它其实是一个聚焦于开源情报(OSINT)收集与分析的自动化工具。这个名字本身就挺有深意,“水晶之爪”——“水晶”象征着透明、清晰,意味着从海量公开信息中洞察本质;“爪子”则代表着抓取、收集和挖掘的能力。这恰恰概括了现代OSINT工具的核心追求:高效、精准地从互联网的公开角落中,提取出有价值的情报线索。

对于不熟悉这个领域的朋友,开源情报听起来可能有点神秘,但其实它离我们并不远。简单来说,就是利用一切公开、合法的信息源(比如社交媒体、新闻网站、论坛、公共数据库、卫星图像、甚至招聘网站)来获取和分析信息。它不像电影里演的需要黑客技术,而是更像一个超级侦探,用合法合规的方式拼凑信息碎片。无论是企业做竞争对手分析、品牌声誉监控,还是个人进行背景调查、验证信息真伪,OSINT都扮演着越来越重要的角色。

“crystal-claw”这类工具的出现,正是为了应对信息爆炸时代的挑战。手动在几十个网站上搜索、比对信息,效率低下且容易遗漏。而一个设计良好的自动化OSINT工具,可以预设目标(如一个用户名、邮箱、域名或关键词),然后像一只无形的手,同时伸向多个数据源,快速抓取、清洗、关联信息,最终生成一份结构化的报告。这不仅能将分析师从重复劳动中解放出来,更能通过算法发现人眼难以察觉的关联模式。

这个项目适合谁呢?首先是网络安全从业者、渗透测试人员和安全研究员,他们需要快速收集目标资产、暴露面信息。其次是调查记者、研究人员,用于追踪事件、验证信源。再者是企业安全团队,用于监控品牌提及、发现潜在威胁。甚至对数字隐私有较高要求的普通用户,也可以用来自查个人信息在互联网上的“足迹”。当然,使用这类工具必须严格遵守法律法规和道德准则,仅用于授权的安全评估、学术研究或个人隐私自查等合法目的。

接下来,我们就深入“crystal-claw”的内部,看看一个现代OSINT工具是如何被设计和构建的,它解决了哪些痛点,以及在实际操作中又有哪些门道和坑需要留意。

2. 核心架构与设计哲学解析

2.1 模块化与可扩展性:打造情报收集的“乐高积木”

审视“crystal-claw”的代码结构(或从同类先进OSINT工具推断其设计),其首要的设计原则必然是模块化。一个优秀的OSINT工具不会是一个铁板一块的庞然大物,而应该像一套乐高积木。不同的数据源(如Shodan、Hunter.io、社交媒体API、Whois数据库、证书透明度日志等)被抽象成独立的“收集器”模块。每个收集器只负责与特定的API或网站交互,按照统一的接口规范返回结构化的数据。

这样做的好处显而易见。第一是可维护性:当某个数据源的API发生变化,或者网站反爬策略更新时,你只需要修改对应的那个收集器模块,而不会影响整个系统的运行。第二是可扩展性:如果你发现了一个新的、有价值的数据源(比如某个小众但信息丰富的论坛),你可以轻松地编写一个新的收集器模块,“插”进现有的框架里,工具的能力立刻就得到了扩展。第三是灵活性:用户可以根据自己的需求,选择性地启用或禁用某些收集器。例如,在一次针对企业的评估中,你可能不需要社交媒体信息,那么就可以关闭Twitter、LinkedIn收集器以提升速度和减少网络噪音。

在“crystal-claw”的设想中,可能会有一个核心的“调度引擎”。这个引擎接收用户输入的目标(例如一个域名example.com),然后根据配置文件或命令行参数,决定按什么顺序、调用哪些收集器。它还需要处理诸如速率限制(避免请求过快被封IP)、错误重试、超时控制等琐碎但至关重要的网络操作。

注意:模块化设计的一个关键挑战是数据标准化。不同数据源返回的JSON格式千差万别。一个设计良好的收集器,必须在获取原始数据后,进行清洗和转换,输出为工具内部统一的、定义良好的数据模型(比如一个“IP地址”对象,应包含地址、地理位置、关联域名等字段)。否则,后续的关联分析和报告生成将无从下手。

2.2 数据关联与图谱构建:从信息点到关系网

单纯的收集信息只是第一步,OSINT工具的真正威力在于关联分析。“crystal-claw”这个名字中的“爪”,或许也隐喻着将分散的信息点抓取并关联起来的能力。假设我们输入一个邮箱地址john.doe@example.com。工具可能会进行如下关联挖掘:

  1. 通过邮箱查找关联的社交媒体账号(如通过邮箱注册的Twitter、GitHub)。
  2. 通过邮箱前缀john.doe猜测并尝试查找其他平台的用户名。
  3. 如果邮箱域名是公司域名@example.com,则自动将该公司域名加入扫描列表,进行子域名枚举、端口扫描(如果集成此类功能)、证书信息查询。
  4. 从查找到的社交媒体资料中,提取地理位置、工作经历、兴趣爱好等文本信息,进行关键词提取。
  5. 将从不同来源找到的同一个人的不同标识符(邮箱、电话、用户名)进行聚合,归并到同一个“人物”实体下。

最终,工具输出的不应是一堆杂乱无章的文本,而是一张知识图谱。在这张图谱里,节点可以是“人物”、“组织”、“域名”、“IP地址”、“电话号码”、“地理位置”,边则是它们之间的关系,如“属于”、“工作于”、“注册于”、“位于”。这种可视化的关联关系,能让人一眼看清目标的全貌,发现隐藏的联系,这是手动搜索难以企及的。

为了实现这一点,“crystal-claw”内部很可能维护着一个图数据库(如Neo4j)或至少是关系型数据库,来存储和查询这些实体与关系。关联逻辑可能通过预定义的规则(启发式)或简单的机器学习模型(如名称相似度匹配)来实现。

2.3 报告生成与输出:让数据自己说话

收集和关联了海量数据之后,如何呈现给用户是最后一公里,也是决定工具易用性的关键。“crystal-claw”应该提供多种输出格式以适应不同场景:

  • 结构化报告(HTML/PDF):这是最常用的形式。一份好的报告应该有清晰的目录、摘要、详细发现,并配有图表(如关系图、时间线图、地理位置图)。关键信息要用高亮或颜色区分风险等级(如暴露的数据库端口标为红色)。
  • 机器可读格式(JSON/CSV):为了后续的自动化处理或集成到其他系统(如SIEM安全信息和事件管理系统、SOAR安全编排自动化与响应平台),原始的结构化数据输出必不可少。
  • 命令行实时输出:对于喜欢在终端工作的技术用户,工具应该在执行过程中就提供清晰、分级的日志输出(INFO, WARNING, ERROR),并可以实时显示关键发现。

报告的内容组织也体现着设计者的心思。它不应该只是数据的堆砌,而应该有一定的叙事逻辑。例如,可以先概括目标的基本情况,然后分章节详细介绍资产发现、人员信息、技术栈暴露、潜在风险点等,最后给出总结和建议。自动化生成这样的报告,需要预先定义好报告模板和填充规则。

3. 关键技术组件与实现细节

3.1 数据源集成:合法合规的信息获取渠道

“crystal-claw”的强大,建立在它所能连接的大量数据源之上。这些数据源大致可以分为几类:

1. 被动数据源(无需直接与目标交互):

  • 搜索引擎与聚合API:如 Shodan(物联网设备搜索)、Censys(网络设备与证书搜索)、ZoomEye(网络空间测绘)。它们提供了全球互联网资产的索引,通过它们的API,我们可以快速发现目标域名下的开放端口、服务横幅、SSL证书等信息,而无需自己发起扫描。
  • 商业OSINT数据库API:如 Hunter.io(邮箱查找)、Clearbit(公司与人信息)、FullContact(联系人聚合)。这些服务通过合法渠道聚合了海量公开数据,提供了高质量的查询接口,但通常有调用次数限制或需要付费。
  • 公共档案与数据库:如 WHOIS(域名注册信息)、DNS记录查询、SSL证书透明度日志(如 crt.sh)、企业工商信息查询网站(各国均有,如中国的天眼查、企查查,需注意合规使用)。与这些源交互,通常需要模拟浏览器请求(处理JavaScript渲染)和解析HTML页面,技术挑战较大。

2. 主动数据源(需要与目标或其相关服务交互):

  • 社交媒体平台API:如 Twitter API、Facebook Graph API(限制日益严格)、LinkedIn API、GitHub API。通过API可以合法获取用户的公开帖子、资料、仓库等信息。但必须严格遵守各平台的开发者条款,主要用于分析公开资料,绝不可用于爬取非公开信息或骚扰用户。
  • 自定义爬虫与解析器:对于没有提供API的论坛、博客、新闻网站,有时需要编写针对性的爬虫。这是法律和道德的灰色地带,必须极其谨慎。应遵守网站的robots.txt协议,设置合理的请求间隔,并只获取明确公开的信息。

实操心得:集成数据源时,API密钥管理是头等大事。绝对不能将密钥硬编码在代码或公开的配置文件中。务必使用环境变量或安全的密钥管理服务来存储。同时,要为每个数据源实现完善的错误处理和重试机制。网络请求可能因为超时、限速、临时故障而失败,一个健壮的工具应该能优雅地处理这些情况,记录失败原因,并在可能时稍后重试,避免因个别源的问题导致整个任务中断。

3.2 异步并发与速率控制:效率与安全的平衡术

OSINT收集往往涉及对数十个甚至上百个数据源的查询。如果采用同步顺序执行,整个流程会慢得无法忍受。因此,“crystal-claw”这类工具的核心引擎必定采用了异步并发编程模型。

在Python中,这通常通过asyncio库配合aiohttp来实现。你可以创建多个“协程”,每个协程负责一个数据源的查询任务。这些协程在同一个线程内由事件循环调度,当一个协程在等待网络响应(IO阻塞)时,事件循环会立刻切换到另一个就绪的协程去执行。这样,在等待的时间里CPU并没有闲着,从而极大地提高了整体吞吐量,理论上可以在几乎相同的时间内并发完成所有数据源的查询。

然而,并发是一把双刃剑。向同一个网站或API发起过高频率的请求,轻则导致你的IP被暂时封禁,重则可能被视为拒绝服务攻击,引发法律风险。因此,速率控制是必须的。这需要在代码层面为每个数据源(甚至每个目标域名)设置请求间隔(例如,每秒不超过2次请求)。asyncio库的asyncio.Semaphore(信号量)或aiolimiter这类第三方库可以很好地实现精确的并发数控制和速率限制。

一个简单的异步请求示例(概念性代码):

import aiohttp import asyncio from aiolimiter import AsyncLimiter # 为某个API设置限速器:每秒最多5个请求 limiter = AsyncLimiter(5, 1) async def query_shodan(session, ip): api_key = os.getenv('SHODAN_API_KEY') url = f"https://api.shodan.io/shodan/host/{ip}?key={api_key}" async with limiter: # 遵守速率限制 try: async with session.get(url, timeout=10) as response: if response.status == 200: data = await response.json() return process_shodan_data(data) else: log.warning(f"Shodan query failed for {ip}: {response.status}") return None except asyncio.TimeoutError: log.error(f"Shodan query timeout for {ip}") return None async def main(targets): async with aiohttp.ClientSession() as session: tasks = [query_shodan(session, ip) for ip in targets] results = await asyncio.gather(*tasks, return_exceptions=True) # 处理results...

3.3 数据解析与实体抽取:从非结构化到结构化

从不同数据源获取的原始数据格式五花八门:有规整的JSON,有半结构化的HTML,也有纯文本。工具的价值在于能从中自动提取出有意义的“实体”和“关系”。这依赖于一系列解析和抽取技术:

  • 正则表达式:对于格式相对固定的文本(如邮箱地址、电话号码、IP地址、域名),正则表达式仍然是快速、高效的提取工具。需要编写模式匹配能力强大且避免误匹配的正则式。
  • HTML解析器:如BeautifulSouplxml。用于从网页中定位和提取特定的信息块,例如社交媒体个人资料中的姓名、简介、位置等。这需要针对每个网站编写特定的选择器(CSS Selector或XPath),且网站改版后选择器可能失效,需要维护。
  • 自然语言处理(NLP):对于更复杂的文本,如个人简介、工作描述、推文内容,可能需要简单的NLP技术来提取关键词、识别组织名称、职位、技能等。例如,使用命名实体识别(NER)模型来识别人名、地名、机构名。虽然“crystal-claw”可能不会集成复杂的NLP模型,但这无疑是高级OSINT工具的一个进化方向。

抽取出的实体需要经过去重和归一化。例如,从不同来源发现的 “John Doe”、“J. Doe”、“john.doe” 可能指向同一个人;公司名 “Google LLC”、“Google”、“Alphabet Inc.” 也需要被正确关联。这通常通过字符串相似度算法(如Levenshtein距离、Jaccard系数)或基于预知知识库的规则来实现。

4. 实战部署与操作指南

4.1 环境准备与安装

假设“crystal-claw”是一个Python项目,典型的部署流程如下。首先,确保你的系统环境符合要求:

  1. Python版本:建议使用Python 3.8或更高版本。可以使用python --version检查。
  2. 依赖管理:项目通常会提供requirements.txtpyproject.toml文件。强烈建议使用虚拟环境来隔离项目依赖,避免污染系统Python环境。
    # 创建并激活虚拟环境(以venv为例) python -m venv .venv # 在Linux/macOS上激活 source .venv/bin/activate # 在Windows上激活 .venv\Scripts\activate
  3. 安装依赖:克隆项目代码后,进入项目目录安装依赖。
    git clone https://github.com/advancescout/crystal-claw.git cd crystal-claw pip install -r requirements.txt # 或者如果使用poetry poetry install
  4. API密钥配置:这是最关键的一步。工具需要访问外部数据源,大部分都需要API密钥。你需要去相应的官网注册开发者账号并获取密钥(如Shodan, Hunter.io等)。然后,按照项目的README说明,将密钥配置到环境变量或配置文件中。
    # 示例:在shell中设置环境变量(临时) export SHODAN_API_KEY="your_shodan_key_here" export HUNTER_API_KEY="your_hunter_key_here" # 更推荐的做法是使用.env文件,并通过python-dotenv加载

踩坑记录:不同数据源的API申请难度和免费额度差异很大。有些(如Shodan)免费账户就有不错的查询额度,适合学习和轻度使用;有些(如某些商业数据库)则非常昂贵。在部署前,最好先规划好你需要哪些数据源,并逐一申请和测试其API是否可用。另外,注意将包含密钥的.env文件添加到.gitignore中,绝对不要提交到版本控制系统。

4.2 基础扫描与参数详解

安装配置完成后,就可以开始第一次扫描了。通常,这类工具会提供一个命令行接口(CLI)。一个最基本的扫描命令可能长这样:

python crystal_claw.py --target example.com --output report.html

让我们拆解一下常用参数:

  • --target/-t:指定扫描目标。可以是域名 (example.com)、IP地址 (8.8.8.8)、邮箱 (name@example.com) 或用户名 (john_doe)。
  • --output/-o:指定输出报告的文件路径和格式,如report.html,results.json
  • --modules/-m:选择启用的收集器模块。例如--modules shodan,whois,dns只进行基础设施侦察。如果不指定,默认启用所有模块。
  • --depth:控制扫描深度。例如,在关联分析时,深度为1可能只查找直接关联的实体,深度为2会进一步查找“关联的关联”。深度越大,扫描越全面,但也越耗时,并可能产生大量无关信息。
  • --verbose/-v:增加输出信息的详细程度,用于调试。
  • --config:指定自定义配置文件路径,用于更复杂的设置,如自定义请求头、代理设置、超时时间等。

一次完整的扫描流程体验:当你执行命令后,工具会开始工作。在终端中,你应该能看到实时的日志输出,显示哪个模块正在运行、发现了什么信息、遇到了什么警告或错误。例如:

[INFO] 开始对目标 'example.com' 进行OSINT收集。 [INFO] 启动模块: whois_collector [SUCCESS] whois_collector: 获取到域名注册信息 (注册商: GoDaddy, 创建日期: 2010-01-01)。 [INFO] 启动模块: dns_collector [SUCCESS] dns_collector: 发现A记录指向 93.184.216.34,发现MX记录 mail.example.com。 [INFO] 启动模块: shodan_collector [WARNING] shodan_collector: 在IP 93.184.216.34 上发现开放端口 80 (HTTP), 443 (HTTPS)。未发现高风险服务。 [INFO] 启动模块: email_collector [SUCCESS] email_collector: 通过Hunter.io发现潜在邮箱: admin@example.com, support@example.com。 [INFO] 开始数据关联与图谱构建... [INFO] 生成HTML报告: report.html。

整个过程可能持续几分钟到几十分钟,取决于目标的大小、启用模块的数量和网络状况。完成后,打开生成的report.html,你就能看到一份图文并茂的情报摘要。

4.3 高级功能与自定义配置

对于进阶用户,“crystal-claw”可能提供了更强大的自定义能力:

  1. 编写自定义收集器:如果项目结构清晰,你可以遵循其接口规范,自己编写一个收集器来集成一个它尚未支持的数据源。这通常需要创建一个新的Python文件,定义一个类,实现fetch()run()方法,该方法接收目标参数,返回标准化的数据字典。然后将这个收集器注册到配置中。
  2. 使用代理与匿名化:在进行大量查询时,为了分散流量或规避某些地理限制,可能需要配置代理。可以在配置文件中设置HTTP/HTTPS代理。更高级的用法可能涉及轮换代理池,以进一步降低被封锁的风险。
    # config.yaml 示例片段 network: proxy: "http://user:pass@proxy-server:port" user_agent: "Mozilla/5.0 (合规的User-Agent)" request_timeout: 30
  3. 结果过滤与去噪:扫描结果中可能包含大量无关或过时的信息。高级过滤功能允许你定义规则,例如“只显示最近一年内的数据”、“忽略来自某些顶级域名的子域名”、“只标记开放了高危端口(如22, 3389)的服务”。这能让你聚焦在真正有威胁或价值的发现上。
  4. 与其他工具集成:通过其JSON输出,你可以将“crystal-claw”的结果轻松导入其他工具。例如,将发现的IP和域名列表导入Nmap进行更深入的端口扫描和服务识别;或者将人员信息导入Maltego进行可视化关联分析。

5. 常见问题、排查技巧与伦理边界

5.1 典型问题与解决方案速查表

在实际操作中,你肯定会遇到各种各样的问题。下面是一个常见问题及其解决思路的速查表:

问题现象可能原因排查与解决思路
模块执行失败,报错“API Key无效”或“配额不足”1. API密钥未正确设置。
2. 密钥已过期或被撤销。
3. 免费查询额度已用尽。
1. 检查环境变量或配置文件中的密钥名称、值是否正确,有无空格或换行。
2. 登录对应数据源官网,确认密钥状态和剩余额度。
3. 考虑购买更高级别的API套餐或降低扫描频率。
网络请求超时或连接被拒绝1. 目标数据源服务器不稳定或不可达。
2. 本地网络问题或防火墙限制。
3. 请求速率过快被临时封禁。
1. 使用curl或浏览器手动测试该API端点是否可访问。
2. 检查本地网络,尝试使用手机热点测试。
3.大幅降低请求速率,在配置中增加请求间隔(如从1秒改为5秒),并添加指数退避重试机制。
HTML解析失败,提取不到数据1. 目标网站页面结构已改版。
2. 网站依赖JavaScript动态加载内容,而工具使用简单HTTP请求。
3. 触发了反爬机制(如验证码)。
1. 更新对应收集器的CSS选择器或XPath。
2. 考虑集成无头浏览器(如playwrightselenium)来渲染JS,但这会极大增加复杂性和资源消耗。
3. 对于反爬,首先确认你的行为是否合规。合规前提下,可尝试更换User-Agent、使用代理IP池,但需格外谨慎。
生成的关系图过于杂乱,难以阅读关联分析深度设置过大,或收集了过多无关数据源,产生了大量弱关联或噪声节点。1. 降低--depth参数值(如从3改为1)。
2. 扫描时使用--modules只选择最相关的几个数据源。
3. 利用报告生成后的过滤功能,手动隐藏不重要的节点类型(如某些社交媒体平台)。
工具运行消耗内存/CPU过高1. 并发任务数设置过高。
2. 目标过大(如扫描一个拥有成千上万个子域名的大型企业),导致内存中存储的实体和关系数据过多。
1. 在配置中调低并发数限制。
2. 考虑分批次扫描,例如先扫描主域名和少量关键子域,再根据结果决定下一步。
3. 确保代码在处理完一批数据后及时释放内存。

5.2 法律合规与道德伦理:不可逾越的红线

使用“crystal-claw”或任何OSINT工具,法律和道德是绝对的前提。以下几点必须时刻牢记:

  1. 仅用于合法授权目的:只能在你自己拥有、已获得明确书面授权(如渗透测试合同)、或法律明确允许(如个人隐私自查)的目标上使用。未经授权扫描他人的系统、收集他人隐私信息,可能违反《计算机欺诈与滥用法案》(CFAA,美国)、《网络安全法》、《个人信息保护法》(中国)等多国法律,构成违法行为。
  2. 尊重服务条款(ToS):每个你通过工具查询的数据源(如Shodan, Twitter, GitHub)都有其服务条款。使用它们的API或访问其网站时,你必须严格遵守这些条款。例如,禁止将数据用于骚扰、歧视、发送垃圾邮件等。
  3. 保护已收集的数据:你通过工具生成的情报报告可能包含敏感信息。你必须像保护自己的敏感数据一样保护它们,妥善存储和加密,仅在必要范围内分享,并在不再需要时安全地销毁。
  4. 保持透明与负责任:如果你是受雇进行安全评估,确保你的行为在合同约定的范围内,并准备好在需要时向客户解释你的方法论和发现。对于偶然发现的严重安全漏洞(如未授权访问的数据),应遵循负责任的披露流程,通知相关方,而不是公开利用。

核心原则:OSINT是一种强大的能力,但“能力越大,责任越大”。始终问自己:我有权这样做吗?我这样做会对他人造成伤害吗?我是否违反了任何协议或法律?将工具用于正义和建设性的目的,是每一位从业者的基本操守。

5.3 性能优化与实战技巧

最后,分享一些从实战中总结出来的技巧,能让你的OSINT收集工作更高效、更精准:

  • 从广撒网到精准打击:初次面对一个庞大目标(如一个集团企业)时,不要一开始就启用所有模块进行深度扫描。可以先进行一轮“轻量级”侦察,只使用whois,dns,subdomain(子域名枚举)等模块,快速摸清资产边界。然后根据初步结果(如发现了哪些关键域名、IP段),再有针对性地进行下一轮深度扫描(如对关键IP进行Shodan查询,对关键邮箱进行社交挖掘)。
  • 善用“种子”信息:一个邮箱、一个电话号码、一个社交媒体ID,都可以作为绝佳的起始点。工具的优势在于能从这一个点出发,关联出更多信息。在调查中,往往最不起眼的一个ID会成为打开局面的关键。
  • 交叉验证信息:不要完全信任单一数据源。从A源找到的某个电话号码,最好用B源(如另一个公开数据库)再确认一下。OSINT的本质是拼图,交叉验证能大大提高信息的可靠性。
  • 定期更新与维护:互联网上的信息瞬息万变,数据源的API和网站结构也会更新。定期拉取“crystal-claw”的项目更新,以获取新的收集器、修复的BUG和对新数据源的支持。同时,自己编写的自定义解析规则也需要定期检查和更新。
  • 记录你的工作流:复杂的调查往往不是一次扫描就能完成的。养成记录的习惯,记下你用了哪些关键词、搜索了哪些网站、得到了哪些线索、下一步的假设是什么。这不仅能帮助你理清思路,在需要撰写报告或回溯调查过程时也至关重要。

“crystal-claw”代表的是一种方法论和能力的延伸。它本身是一个工具,而如何合规、高效、创造性地使用这个工具,将其融入你的安全评估、调查研究或隐私保护工作流中,并始终保持对技术和伦理的思考,才是真正价值所在。工具会不断迭代,但谨慎、负责和追求真相的态度,是使用任何OSINT工具时永不褪色的核心。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/9 20:37:07

收藏!2026年普通人也能干的5个高薪AI新职业(无需代码,小白也能学)

文章介绍了5个无需编程技能的AI相关职业:AI训练师、AI内容运营、提示词工程师、AI数据标注员和AI销售顾问。这些职业为没有高学历或技术背景的人提供了进入AI行业的机会,强调了学习AI工具和技能的重要性,鼓励人们抓住AI时代的机遇。 2026年&a…

作者头像 李华
网站建设 2026/5/9 20:34:43

CANN/ge添加输出API

AddOutput 【免费下载链接】ge GE(Graph Engine)是面向昇腾的图编译器和执行器,提供了计算图优化、多流并行、内存复用和模型下沉等技术手段,加速模型执行效率,减少模型内存占用。 GE 提供对 PyTorch、TensorFlow 前端…

作者头像 李华
网站建设 2026/5/9 20:31:30

量子机器学习新范式:Classiq如何简化QML模型开发

量子机器学习新范式:Classiq如何简化QML模型开发 【免费下载链接】classiq-models The Classiq Library is the largest collection of quantum algorithms and applications. It is the best way to explore quantum computing software. We welcome community con…

作者头像 李华
网站建设 2026/5/9 20:27:46

3个核心模块帮你零代码完成专业文本挖掘:KH Coder完全指南

3个核心模块帮你零代码完成专业文本挖掘:KH Coder完全指南 【免费下载链接】khcoder KH Coder: for Quantitative Content Analysis or Text Mining 项目地址: https://gitcode.com/gh_mirrors/kh/khcoder 你是否曾面对海量文本数据感到无从下手?…

作者头像 李华
网站建设 2026/5/9 20:26:33

K-12阶段AI教育:从核心概念到项目实践的课程设计与教学指南

1. 项目概述:为什么K-12阶段必须引入AI教育? 这几年,我接触了不少中小学的信息技术老师、校长,也参与过一些地方性的课程改革项目。一个最直观的感受是,当我们在讨论“编程教育”、“创客教育”时,孩子们已…

作者头像 李华