摘要

随着深度学习技术与自然语言处理技术的快速发展,以ChatGPT为代表的大型语言模型应运而生,然而其在诸多领域展现出令人惊讶的能力的同时,也暴露出诸多安全威胁,这引发了学术界与产业界的担忧.首先,介绍了ChatGPT及其系列模型的发展历程、工作模式与训练方式;然后,从用户和模型2个层面总结并分析了当前ChatGPT可能遇到的各类安全问题,并提出应对思路与方案;最后,对ChatGPT以及大型语言模型领域未来如何安全可信地发展进行了展望.