OpenAI首次公开前沿大模型安全:基础架构、保护的方法等
时间: 2024-06-10 13:04:24 | 作者: 华体会登入页面
详情
6月6日凌晨,OpenAI在官网公开了前沿大模型的安全策略,包括基础架构、保护的方法、敏感数据存储、研发人员访问管理等。
这也是OpenAI首次系统性的公布大模型开发安全方面的高级细节,让外界深度了解其模型的开发流程,同时可为开发者在研究最新的前沿大模型提供技术借鉴。
大家都知道,OpenAI ChatGPT是不能在中国使用的,哪怕你在澳门香港也一样。而且私下使用,账号容易被封禁,API调用也经常被限制,最重要是不能用国内信用卡支付,很影响工作。
微软Azure OpenAI和OpenAI企业来提供的API服务是一样的,微软是OpenAI公司的大股东。ChatGPT背后的支持也是由Azure提供的,包括训练和推理等等。
作为微软的合作伙伴,全云在线可为企业开通绿色申请通道!包括企业版AZURE OPEN AI 最新版本GPT-4o、Dalle-3,只要企业有需求,全云在线都能协助快速开通!
OpenAI的研究技术架构建立在微软的Azure云服务之上,并通过Kubernetes(谷歌开源的容器平台)进行辅助。
Azure Entra ID 与内部身份验证和授权框架及控制集成。Azure Entra ID 可以对会话创建、身份验证tokens的使用和异常登录检测进行基于风险的验证。这些功能是对内部检测工具的补充,有助于识别和阻止潜在安全威胁。
OpenAI主要使用Kubernetes 来协调和管理基础设施中的工作负载。研究工作负载受到 Kubernetes基于角色的访问控制(RBAC)策略的保护,以遵守最小权限原则。
依靠现代技术为研究环境提供安全的网络。网络策略定义了工作负载与外部服务的通信方式。OpenAI会使用 默认拒绝策略,并明确允许列出授权的外部通信路径,并普遍的使用专用链路网络路由,以消除通往互联网的必要路由,并缩短允许列表。
对于一些风险较高的任务,OpenAI会使用 gVisor(谷歌开源的沙箱环境)来解决,这是一种提供额外隔离的容器运行环境。这种深度防御方法可确保强大的安全性和工作负载的高效管理。
OpenAI使用密钥管理服务来存储和管理,研究基础设施中的敏感数据,并使用基于角色的访问控制来限制对数据的访问,以便只有授权的工作负载和用户才能检索或修改它们。
所以,OpenAI建立了一项名为 AccessManager 的服务,作为管理内部授权和实现最小权限授权的可扩展机制。该服务将访问管理决策联合给由策略定义的审批者。这样就能确保授权人员在适当的监督下做出访问敏感资源(包括模型权重)的决定。
AccessManager策略可以定义为严格的或灵活的,依据相关资源进行定制。请求并被授予对敏感资源的访问权限,例如,包含模型权重的研究环境中的存储需要多方批准。
对于敏感数据,AccessManager 授权授予设置为在指定时间段后过期,这在某种程度上预示着如果访问者不续订,权限将降低到非特权状态。
OpenAI还将GPT-4 集成到 AccessManager 中,用于最小权限角色的分配工作。用户都能够在AccessManager 中搜索资源,该服务将使用OpenAI的模型来建议可以授予该资源访问权限的角色。将用户连接到更具体的角色可以消除对广泛、通用和过于宽松的角色的依赖。
模型权重的保护很重要,能够尽可能的防止OpenAI很多未公布和重要的基础模型出现泄漏的情况,主要使用了以下保护策略:
访问:用于研究模型权重的存储资源专用链接到 OpenAI 的环境中,以减少对互联网的暴露,并一定要通过 Azure云进行身份验证和授权才能访问。
出口控制:OpenAI的研究环境使用网络控制,仅允许出口流量流向特定的预定义互联网目标。流向不在允许列表中的主机的网络流量将被拒绝。
OpenAI会通过内部和外部“安全红队”来模拟恶意使用方,并测试对研究环境的安全控制。目前,OpenAI已经与一家第三方的安全咨询公司对其研究环境进行了渗透测试。
此外,OpenAI正在探索研究环境的合规制度,来保证大模型的权重安全等问题。OpenAI还在评估现有的安全标准及专门用于保护AI技术的自定义控制措施。
其实,你要是经常看OpenAI的blog就能发现,最近几个月除了发布新产品之外,关于AI模型安全的介绍与讲解非常多。还在于OpenAI受到的安全压力非常大。
上个月OpenAI的主要安全负责人Ilya Sutskever、Jan Leike相继辞职,并且Jan还在社交平台公开吐槽OpenAI不重视产品的安全,有几率存在很大的潜在风险。
昨天,11名OpenAI现役和前员工发布了一封公开联名信,主要警告前沿AI模型可能会带来非常大的风险。
例如,生成错误的内容、人为操控、不平等进一步加剧等,并且有极大几率会出现失控的局面对社会造成巨大伤害。
他们希望能够通过这封联名信,呼吁全球参与大模型的政府架构、大规模的公司、科研人能指定安全、可持续的监督条例和规则,防止人类在探索AGI(通用AI)的道路上发生不幸的意外。
他们呼吁先进的AI模型企业、学术机构应该遵循以下4项原则,「AIGC开放社区」会为大家做一个简单直观的解读。
1、组织不会签订或执行任何禁止或批评AI模型有关问题的协议,也不会通过阻碍任何既得经济利益对风险相关批评进行报复。
简单来说,就希望企业、政务机构支持监管条例,不要嫌弃、恶意对待提出监管条例的人。
2、公司将为在职员工和前员工向公司董事会、监督管理的机构,以及具有相关专业相关知识的适当独立组织提出与风险有关的疑虑提供可核实的匿名程序。
这个就希望可以如实的向上汇报AI模型的进程和存在的风险,不要有瞒报的情况出现,例如,OpenAI就因为这个事情罢免过他们的CEO。
3、组织应该支持公开批评的文化,允许现任和前任员工向公众、公司董事会、监督管理的机构或具有相关专业相关知识的适当独立组织,提出与其技术有关的风险问题,只要商业机密和其他知识产权利益得到适当保护即可。
就是说如果AI模型确实存在风险,你应该允许员工在公开的社交平台向大众说明真实情况,而不是一味的隐瞒。OpenAI前几天两名很重要的安全负责人离职了,其中一位在社交平台吐槽OpenAI的安全监管很差,并且引发了离职协议等恶性事件。
反正就是,员工离职了应该有话语自由权不能遮遮掩掩的,有告知大众真相的权利,但是涉及商业机密的事情不能说。
4、公司不会对AI项目失败后,公开分享风险相关机密信息的现任和前任员工做报复。当然,在报告项目风险时应该极力的避开商业机密。
因此,一旦有了向公司董事会、监督管理的机构和具有相关专业相关知识的适当独立组织匿名提出疑虑的适当程序,同意最初应通过此类程序提出疑虑。然而,只要这样的程序还不存在,现任和前任员工就应保留向公众报告其疑虑的自由。
简单来说,员工向大众报告了AI项目确实存在的风险,并且在说明的过程中避免了商业机密。公司是不能向爆料员工报复的,例如,之前的OpenAI的离职协议写着,员工离职后不能吐槽其项目不然就拿不到股权等。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
李泽楷旗下富卫集团回应重启香港IPO,估值超700亿,亚洲保险市场景气度较高
宝宝想爬上床 喊妹妹来帮忙,情绪稳定的妹妹 坐在地上一脸镇定,这么小就知道合作很重要
小宝宝把饭弄得满身都是饭除了嘴里沒有饭 其他哪都有妈妈的情绪真的好稳定
㊹| “冲波突出人齐譀,跃浪争先鸟退飞。向道是龙刚不信,果然夺得锦标归”。西南医科大学龙舟队队长...