这封联名信的名单还在持续更新中。
我们正处于人工智能治理的关键时刻。为了减轻人工智能系统当前和未来的危害,我们需要拥抱开放、透明和广泛的访问。这需要成为全球优先事项。 的确,公开可用的模型存在风险和漏洞 —— 人工智能模型可能被恶意行为者滥用或被装备不足的开发人员部署。然而,我们一次又一次地看到,各种专有技术都是如此 —— 增加公众访问和审查使技术更安全,而不是更危险。对基础人工智能模型进行严格和专有的控制是保护我们免受大规模伤害的唯一途径,这种想法往好了说是天真,往坏了说就是危险。
此外,人类发展的历史告诉我们,迅速采取错误的监管可能会导致权力集中,从而损害竞争和创新。开放模型可以为公开辩论提供信息并改进策略制定。如果我们的目标是安全、保障和问责,那么开放和透明就是实现这一目标的重要因素。 我们正处于一场关于人工智能时代「开放」含义的动态讨论之中。这场重要的辩论不应该放慢脚步。相反,它应该加快速度,鼓励我们尝试、学习和开发新的方法,在人工智能安全竞赛中利用开放性。
我们需要为开源与开放构建一系列方法,这些方法可以作为以下方面的基石: 1. 通过独立研究、协作和知识共享,加速了解人工智能能力的风险和危害。 2. 通过帮助监管机构采用工具来监控大规模人工智能系统,加强公众监督和问责。 3. 降低新玩家的进入门槛,专注于创建负责任的人工智能。 作为这封公开信的签署人,我们是一个多元化的群体,包括科学家、策略制定者、工程师、活动家、企业家、教育工作者和记者等等。我们代表关于如何管理和发布开源人工智能的不同观点。然而,我们强烈同意一件事:开放、负责任和透明的方法对于确保我们在人工智能时代的安全至关重要。 在人工智能安全方面,开放是解药,而不是毒药。
-
Arthur Mensch,法国初创公司 MistralAI 联合创始人兼首席执行官 -
吴恩达,DeepLearning.AI 创始人,Landing AI 创始人兼首席执行官,斯坦福大学计算机科学系教授 -
Yann Lecun,图灵奖得主,Meta 首席 AI 科学家 -
Julien Chaumond,Hugging Face CTO -
Brian Behlendorf,Apache 创始成员,OpenSSF 首席技术官 -
Eric Von Hippel,美国经济学家,MIT 斯隆管理学院教授 -
……
© 版权声明
文章版权归作者所有,未经允许请勿转载。
关注公众号,免费获取chatgpt账号
相关文章
暂无评论...