這是用戶在 2024-10-18 16:12 為 https://www.perplexity.ai/page/the-ai-safety-clock-oD44Gvv4RMy9zk6K5G1kbQ 保存的雙語快照頁面,由 沉浸式翻譯 提供雙語支持。了解如何保存?
time.com
time.com
AI安全时钟
User avatar
策划者
elymc
2 分钟阅读
2 小时前
2,727
106
由IMD的Michael Wade及其团队引入的AI安全时钟,作为一个象征性指标,用于衡量与不受控制的通用人工智能(AGI)相关的日益增长的风险,目前设定为距离午夜29分钟,以表明解决由超出人类控制的先进AI系统所带来的潜在生存威胁的紧迫性。

人工智能安全时钟简介

IMD的TONOMUS全球数字和AI转型中心创建的AI安全时钟是一个工具,旨在评估和传达失控人工通用智能(UAGI)带来的风险。受末日时钟的启发,它作为一个象征性表示,显示人类距离自主AI系统在没有人类监督下运行所带来的潜在危害有多近。
1
2
AI安全时钟的主要特点包括:
  • 当前读数为午夜前29分钟,表明我们距离UAGI风险的关键临界点大约一半
    3
    4
  • 持续监测超过1,000个网站和3,470个新闻源,以提供关于技术和监管发展的实时见解
    1
  • 关注三个主要因素:AI的推理和解决问题的能力、其独立运作的能力以及其与物理世界的互动
    2
  • 定期更新方法和数据以确保准确性和相关性
    2
  • 旨在提高公众、政策制定者和商业领袖的意识,并指导他们做出明智的决策,而不引起恐慌
    1
    2
imd.org favicon
imd.org favicon
regulatingai.org favicon
4 sources

当前状态:距离午夜还有29分钟

AI安全时钟当前显示距离午夜还有29分钟,这意味着我们大约已经走到潜在失控的通用人工智能(AGI)末日场景的一半
1
2
。这一评估基于对各个领域AI进展的全面评估:
  • 机器学习和神经网络取得了显著进展,AI在图像和语音识别以及复杂游戏等特定任务中表现优于人类
    3
  • 尽管大多数AI系统仍依赖于人类指导,但一些系统显示出有限的独立性,例如自动驾驶汽车和推荐算法
    3
  • AI与物理系统的整合正在推进,尽管完全自主性在安全、伦理监督和非结构化环境中的不可预测性方面面临挑战
    3
尽管有这些进展,专家强调仍有时间采取行动并实施必要的保障措施,以确保AI技术的负责任发展
2
3
regulatingai.org favicon
imd.org favicon
time.com favicon
3 sources

监测的关键因素

AI安全时钟通过监测三个关键因素来评估失控的通用人工智能(UAGI)所带来的风险:
  • AI复杂性:跟踪机器学习、神经网络以及AI在各个领域解决问题能力的进展
    1
    2
  • 自主性:评估AI系统在没有人类输入的情况下独立运作的能力,从特定任务的有限自主性到潜在的完全独立性
    1
    3
  • 物理整合:评估AI与物理世界互动的能力不断增强,包括基础设施、社交网络,甚至武器系统
    1
    3
这些因素通过一个专有的仪表板进行持续监测,该仪表板分析来自超过1,000个网站和3,470个新闻源的数据,提供关于AI技术进步和监管发展的实时洞察
4
3
regulatingai.org favicon
time.com favicon
imd.org favicon
4 sources

更广泛的影响和意义以及批评和末日反驳

AI安全时钟在AI社区及其他领域引发了激烈的辩论。虽然它提高了人们对潜在风险的认识,但批评者认为它过于简化复杂问题,可能会引发不必要的恐慌
1
2
。与核武器不同,核武器构成了原始末日时钟的基础,而人工通用智能(AGI)尚不存在,这使得AI安全时钟的末日情景在很大程度上是推测性的
3
尽管存在这些批评,该倡议仍产生了更广泛的影响:
  • 在英国、美国和日本等国家建立了AI安全研究所,以研究风险并开发测试框架
    4
  • 增加了AI开发者与安全专业人士之间合作的呼声
    5
  • 强调在AI开发中如责任和透明度等原则
    5
  • 促进了全球关于AI治理的讨论,如在首尔宣言中,超过二十个国家签署了该宣言
    4
虽然关于此类象征性表示的有效性的辩论仍在继续,但AI安全时钟无疑激发了关于在创新与负责任的AI开发之间取得平衡的重要对话
2
4
imd.org favicon
time.com favicon
regulatingai.org favicon
5 sources
相关的
AI安全时钟对失控AGI的定义与该领域其他定义相比如何?
拥有人工智能安全时钟的潜在好处是什么?
AI安全时钟如何影响公众对AI风险的看法
依赖类似时钟的系统进行人工智能风险评估的潜在缺点是什么?
AI安全时钟如何解决AI武器化问题
继续阅读
Understanding the Current Limitations of AI
Understanding the Current Limitations of AI
Artificial Intelligence (AI) has transformed numerous industries with its ability to streamline processes and analyze vast amounts of data. However, despite its advancements, AI also faces significant limitations, including issues with creativity, context understanding, and ethical concerns. Understanding these limitations is crucial for leveraging AI effectively and ethically in various applications.
17,744
OpenAI正在训练下一个模型。
OpenAI正在训练下一个模型。
OpenAI是一家领先的人工智能公司,已宣布开始训练其下一代旗舰AI模型,该模型将继承为ChatGPT提供支持的突破性GPT-4技术。此项发展伴随着一个新的安全委员会的成立,该委员会负责评估和改进OpenAI的流程和安全措施。
80,367
AI Alignment Explained: What Does It Mean?
AI Alignment Explained: What Does It Mean?
AI alignment is the critical field of research aimed at ensuring artificial intelligence systems behave in accordance with human intentions and values. As AI capabilities rapidly advance, alignment efforts seek to address the fundamental challenge of creating powerful AI systems that reliably pursue intended goals while avoiding unintended or harmful outcomes.
1,272
Understanding AI Ethical Considerations: A Comprehensive Guide
Understanding AI Ethical Considerations: A Comprehensive Guide
Artificial intelligence (AI) is revolutionizing various sectors, from healthcare to finance, but its rapid advancement raises significant ethical concerns. Key issues include data bias, privacy, accountability, and transparency, which necessitate careful scrutiny and robust regulatory frameworks to ensure AI's responsible and equitable deployment.
2,307