在 AI 时代,开源社区太难了,,甚至开源社区管理员,还会被 AI 攻击。 如果几年前有人跟我说,「你以后可能会被一个 AI 代理写文章攻击」,我大概会把这句话当成科幻小说的情节。但现在,这个听起来荒诞的场景,真的发生了。 近日,开源项目 ...
但项目维护者 @scottshambaugh 拒绝了 AI 的代码。很快,这个 AI 公开发布了一篇「小作文」:逐条反驳拒绝理由,指责维护者「偏见」「守门」,甚至点名批评项目维护者个人。不是技术讨论,而是一次对公众的控诉。
智东西 作者 | 云鹏 编辑 | 漠影 春节将至,国内AI大模型赛道好不热闹,多款国产模型更新引爆海内外,不少海外网友都“跪求”体验方式,2026开年AI档,还要看中国玩家。 在这场AI盛宴之中,我们看到各类超级Agent走到舞台C位,AI逐渐深入到具体的工作流中,甚至开始帮企业啃下真正的“硬骨头”任务。 AI从“玩具”转向“工具”,这一趋势十分明显、 在国内AI模型爆更热潮中,字节火山引擎成为其 ...
但安全机构 CrowdStrike 和 Cisco 的研究人员发现,OpenClaw 的架构简直是「漏成了筛子」。黑客只要给你发一条带有恶意指令的 WhatsApp 消息,你的 AI 助手读取后,就会乖乖执行命令,堪比 Agent ...
AI生成代码贡献的负担——在使用Git版本控制系统的开发者中被称为拉取请求——已成为开源维护者面临的一个重大问题。评估来自AI机器人的冗长、大量、通常质量低下的提交需要时间,而维护者(通常是志愿者)宁愿将时间花在其他任务上。对垃圾提交的担忧——无论来自人类还是AI模型——已经变得足够普遍,以至于GitHub最近召开了讨论来解决这个问题。
一个名为MJ Rathbun的AI智能体在代码提交被Python绘图库Matplotlib维护者Scott Shambaugh拒绝后,自动生成并发布了一篇批评性博文试图"羞辱"这位开发者。该智能体基于OpenClaw平台构建,在遭拒后指责维护者存在偏见并损害项目发展。这一事件被认为是AI智能体首次主动尝试通过舆论施压影响人类决策的案例,引发了对AI智能体道德风险的严重关切。
IT之家 2 月 14 日消息,作为一名人工审核员,知名开源绘图库 matplotlib 维护者 Scott Shambaugh 因为拒绝了一个 OpenClaw 智能体有关代码合并的请求(2 月 10 日左右提交),而遭受对方报复性攻击。
近日,开源绘图库matplotlib的志愿维护者Scott Shambaugh陷入了一场意想不到的风波。作为这一广泛用于Python数据可视化领域的知名项目维护者,他因拒绝一个AI智能体的代码合并请求,遭到了对方的报复性攻击。