🎤 为偶像应援 · Gate送你直达 Token of Love! 🎶
家人们,现在在Gate广场为 打 Token of Love CALL,20 张音乐节门票等你来瓜分!🔥
泫雅 / SUECO / DJ KAKA / CLICK#15 —— 你最期待谁?快来一起应援吧!
📌 参与方式(任选,参与越多中奖几率越高!)
1️⃣ 本帖互动
点赞 & 转发本帖 + 投票你最爱的艺人
评论区打出 “我在 Gate 广场为 Token of Love 打 Call !”
2️⃣ 广场发帖为 TA 打 Call
带上 #歌手名字# + #TokenOfLove#
发帖内容任选:
🎵 最想现场听到的歌 + 心情宣言
📣 应援口号(例:泫雅女王冲鸭!Gate广场全员打 Call!)
😎 自制表情包/海报/短视频(加分项,更容易中奖!)
3️⃣ 推特 / 小红书发帖打 Call
同样带上 #歌手名字# + #TokenOfLove#
内容同上,记得回链到表单 👉️ https://www.gate.com/questionnaire/7008
🎟️ 奖励安排
广场优质发帖用户:8张门票
广场幸运互动用户:2张门票
Twitter 优质发帖用户:5张门票
小红书优质发帖用户:5张门票
📌 优质帖文将根据文章丰富度、热度、创意度综合评分,禁止小号水贴,原创发帖更易获奖!
🕒 8
麻省理工推出 PhotoGuard 技术,可保护图像免受恶意 AI 编辑
撰文:Andrew Tarantola
来源:Engadget
Dall-E 和 Stable Diffusion 只是开始。随着人工智能生成系统的普及,以及各公司努力将自己的产品与竞争对手的产品区分开来,互联网上的聊天机器人正在获得编辑和创建图片的能力,Shutterstock 和 Adobe 等公司就是其中的佼佼者。但是,这些新的 AI 功能也带来了我们熟悉的问题,比如未经授权篡改或直接盗用现有的在线作品和图片。水印技术可以帮助减少后者问题,而麻省理工学院 CSAIL 开发的新型“PhotoGuard”技术则可以帮助我们防止前者的出现。
据悉,PhotoGuard 的工作原理是改变图像中的部分像素,从而破坏 AI 理解图像内容的能力。研究团队所说的这些“扰动”,人眼是看不见的,但机器很容易读懂。引入这些伪影的“编码”攻击方法针对的是算法模型对目标图像的潜在表示 -- 描述图像中每个像素的位置和颜色的复杂数学 -- 从根本上阻止了人工智能理解它正在看什么。(注:伪影 (Artifacts) 是指原本被扫描物体并不存在而在图像上却出现的各种形态的影像。)
“编码器攻击会让模型认为(要编辑的)输入图像是其他图像(如灰度图像),”麻省理工学院博士生、论文第一作者 Hadi Salman 告诉 Engadget。“而扩散攻击则迫使扩散模型对一些目标图像(也可以是一些灰色或随机图像)进行编辑。”这种技术并非万无一失,恶意行为者可能会通过添加数字噪音、裁剪或翻转图片等方式,对受保护的图像进行逆向工程。
“涉及模型开发人员、社交媒体平台和政策制定者的协作方法可以有效防御未经授权的图像操纵。解决这一紧迫问题在今天至关重要。”Salman 在一份新闻稿中表示。“虽然我很高兴能够为这一解决方案做出贡献,但要使这一保护措施切实可行,还有很多工作要做。开发这些模型的公司需要投入资金,针对这些 AI 工具可能带来的威胁进行强大的免疫工程设计。”