(路透社)-微软支持的OpenAI于周一宣布,其安全委员会将作为一个独立的机构,负责监督公司在人工智能模型开发和部署过程中的安全性。
这一决定是在委员会首次向OpenAI董事会提出建议后作出的。
OpenAI公司成立于今年5月,旨在评估和进一步完善其现有的安全实践,尤其是其广受欢迎的聊天机器人ChatGPT。
ChatGPT自2022年底推出以来,激发了公众对人工智能的浓厚兴趣和热情。
围绕ChatGPT的讨论突显了人工智能所带来的机遇与挑战,并引发了关于道德使用和潜在偏见的广泛讨论。
OpenAI表示,作为委员会建议的一部分,正在考虑“为人工智能行业建立信息共享和分析中心(ISAC),以便在行业内共享威胁情报和网络安全信息”。
该独立委员会将由卡内基梅隆大学的教授及机器学习系主任济科·科尔特担任主席,他同时也是OpenAI董事会的成员。
OpenAI表示:“我们希望扩大内部信息的细分,增加人力,以增强全天候的安全运营团队。”
该公司还表示,将致力于提高其人工智能模型在能力和风险方面的透明度。
上个月,OpenAI与美国政府签署了一项协议,旨在对其人工智能模型进行研究、测试和评估。
0
本文来自作者[svs]投稿,不代表立场,如若转载,请注明出处:http://cathieandrew.com/post/7253.html
评论列表(4条)
我是的签约作者“svs”!
希望本篇文章《OpenAI的安全委员会将作为一个独立机构监督安全实践》能对你有所帮助!
本站[]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览: (路透社)-微软支持的OpenAI于周一宣布,其安全委员会将作为一个独立的机构,负责监督公司在人工智能模型开发和部署过程中的安全性。...