📢 Gate广场独家活动: #PUBLIC创作大赛# 正式开启!
参与 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),并在 Gate广场发布你的原创内容,即有机会瓜分 4,000 枚 $PUBLIC 奖励池!
🎨 活动时间
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 参与方式
在 Gate广场发布与 PublicAI (PUBLIC) 或当前 Launchpool 活动相关的原创内容
内容需不少于 100 字(可为分析、教程、创意图文、测评等)
添加话题: #PUBLIC创作大赛#
帖子需附带 Launchpool 参与截图(如质押记录、领取页面等)
🏆 奖励设置(总计 4,000 枚 $PUBLIC)
🥇 一等奖(1名):1,500 $PUBLIC
🥈 二等奖(3名):每人 500 $PUBLIC
🥉 三等奖(5名):每人 200 $PUBLIC
📋 评选标准
内容质量(相关性、清晰度、创意性)
互动热度(点赞、评论)
含有 Launchpool 参与截图的帖子将优先考虑
📄 注意事项
所有内容须为原创,严禁抄袭或虚假互动
获奖用户需完成 Gate广场实名认证
Gate 保留本次活动的最终解释权
谷歌人工智能代理在被利用之前发现了关键的SQLite漏洞
HomeNews* 谷歌 利用其人工智能驱动的框架,在开源 SQLite 数据库被广泛利用之前,发现了一个重大安全漏洞。
谷歌将这一安全漏洞描述为严重,指出威胁行为者对此漏洞有所了解,并可能利用它。“通过威胁情报和大睡眠的结合,谷歌能够实际预测到一个漏洞即将被利用,我们能够提前切断这一漏洞,” 谷歌和字母表的全球事务总裁肯特·沃克在一份官方声明中表示。他还说,“我们相信这是首次有AI代理被用来直接破坏在野外利用漏洞的努力。”
去年,Big Sleep 还发现了一个独立的 SQLite 漏洞——栈缓冲区下溢——这可能导致崩溃或攻击者运行任意代码。对此,谷歌发布了一篇白皮书,建议对 AI 代理进行明确的人类控制和严格的操作边界。
谷歌表示,传统的软件安全控制不足,因为它们没有为AI代理提供所需的上下文。同时,仅依赖AI的判断进行安全防护并不能提供强有力的保障,因为存在像提示注入这样的弱点。为了解决这个问题,谷歌采用了一种多层的“深度防御”方法,结合了传统的安全防护和AI驱动的防御。这些层旨在降低攻击带来的风险,即使代理的内部过程被威胁或意外输入操控。
之前的文章: