📢 Gate广场独家活动: #PUBLIC创作大赛# 正式开启!
参与 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),并在 Gate广场发布你的原创内容,即有机会瓜分 4,000 枚 $PUBLIC 奖励池!
🎨 活动时间
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 参与方式
在 Gate广场发布与 PublicAI (PUBLIC) 或当前 Launchpool 活动相关的原创内容
内容需不少于 100 字(可为分析、教程、创意图文、测评等)
添加话题: #PUBLIC创作大赛#
帖子需附带 Launchpool 参与截图(如质押记录、领取页面等)
🏆 奖励设置(总计 4,000 枚 $PUBLIC)
🥇 一等奖(1名):1,500 $PUBLIC
🥈 二等奖(3名):每人 500 $PUBLIC
🥉 三等奖(5名):每人 200 $PUBLIC
📋 评选标准
内容质量(相关性、清晰度、创意性)
互动热度(点赞、评论)
含有 Launchpool 参与截图的帖子将优先考虑
📄 注意事项
所有内容须为原创,严禁抄袭或虚假互动
获奖用户需完成 Gate广场实名认证
Gate 保留本次活动的最终解释权
💬 维塔利克·布特林(Vitalik Buterin)警告人工智能的进步。
人工智能可以超越人类成为“高级物种”。
“人工智能可能使世界变得更糟的方式之一是最糟糕的:它可能真的导致人类灭绝。
Vitalik 引用了 2022 年对 4,270 多名研究人员进行的一项调查,该调查估计人工智能杀死人类的风险为 5-10%。
“如果超级智能人工智能反人类,即使是火星也可能不安全。
对于Vitalik来说,人工智能与最近的其他发明“根本不同”,因为人工智能可以创造一种新的“思想”,这可能会适得其反。
“人工智能是一种新型的思维,它正在迅速获得智能,并有很大的机会超越人类的智力,成为地球上新的保护伞物种。
Vitalik还提出了“积极的人类意图”,以引导人工智能朝着对人类有益的方向发展。