近日,全国网络安全标准化技术委员会正式发布《生成式人工智能服务安全基本要求》(以下简称“安全基本要求”),从语料安全、模型安全等多个维度规定了生成式人工智能服务在安全方面的基本要求,高校、研究机构、夸克代表的科技厂商等多方参与了文件起草。
据介绍,安全可信是生成式人工智能健康发展的必要条件,《安全基本要求》是《生成式人工智能服务管理暂行办法》在安全领域的具体支撑,也是近期生成式人工智能领域最重磅的一个文件,将推动行业进一步健康有序发展,应用加速落地。
全国网络安全标准化技术委员在去年10月发布《安全基本要求》征求意见稿后,得到了社会各界积极反馈。浙江大学、北京中关村实验室、阿里巴巴、科大讯飞等均参与了文件起草,其中夸克作为应用型大模型的代表公司之一,也贡献了自己的力量。
企业走在大模型应用最前线,也最应践行大模型安全保障。夸克于2023年11月发布亿级参数自研大模型,自推出伊始夸克便将安全性作为大模型产品的重要研发方向。据介绍,安全性是夸克大模型的四大能力之一,这体现在具备较好的世界观、价值观,对于明显的暗示信息,夸克大模型均能实现准确识别、正确回答或者给出合理指引。
夸克大模型在2023年12月通过备案后,不到100天时间内推出了四款大模型产品:元知、健康助手、AI讲题助手、AI PPT。夸克大模型产品备受消费者喜爱,一个重要原因是产品安全性提高了用户信任度。例如夸克健康助手发布后,用户对健康助手的回答满意度相当高,主要原因是夸克将医疗健康类问答内容幻觉率降低至5%,用户从体验上会发现夸克健康助手答案的正确性、逻辑性都比较高。
清华大学新闻与传播学院新媒体研究中心近日发布的《大语言模型综合性能评估报告》显示,夸克大模型在安全合规与公正性上展现出突出优势。报告指出夸克大模型在确保数据安全和遵守相关法规方面投入了相应的努力,并在设计和实现中对隐私保护和数据安全有较高的重视。
夸克大模型的安全能力,主要来自搜索场景中积累的丰富经验和能力。清华大学新闻学院教授、博士生导师沈阳指出,搜索引擎天然具有各种网络公开数据,在内容安全上经历了长时间的考验,用户也提供了大量的查询需求交互,因此搜索与大模型的结合是天然之配。
工作时间:8:00-18:00
电子邮件
扫码二维码
获取最新动态