杭州日报讯 在科技的浪潮中,大模型人工智能(AI)的崛起,如同打开了潘多拉魔盒,释放出无限可能的同时,也带来了前所未有的挑战。
从OpenAI的GPT系列到谷歌的BERT,再到国内的百度文心一言、阿里巴巴通义千问、腾讯混元、华为盘古……大模型AI正以其惊人的迭代速度,不断刷新着人们的认知。
然而,随着AI生成内容的大量涌现,监管与发展之间的矛盾日益突出。数据泄露、结果不可控、潜在的歧视和偏见等问题,给大模型AI的健康发展蒙上了一层阴影。前段时间马斯克等千名科技人士的联署公开信,呼吁暂停训练更强大的AI系统,以及ChatGPT开发者对监管的呼声,都在给狂奔的AI按下“刹车键”。
大模型AI“元年”,如何确保安全与创新的平衡,已成为行业面临的共同课题。
面对大模型AI的安全挑战,国际组织已经开始采取行动。日前,在第27届联合国科技大会上,世界数字技术院(WDTA)发布了《生成式人工智能应用安全测试标准》和《大语言模型安全测试方法》两项国际标准。据悉,这两项国际标准是由来自OpenAI、谷歌、微软、英伟达、蚂蚁集团、科大讯飞、百度、腾讯等数十家中外科技企业的专家学者共同编制而成,是国际组织首次就大模型安全领域发布国际标准,代表全球人工智能安全评估和测试进入新的基准阶段。WDTA工作组组长黄连金表示,这两项标准填补了安全测试领域的空白,为提高AI系统安全性和促进AI技术负责任发展提供了重要支撑。
在国内,网信办此前发布的《生成式人工智能服务管理办法(征求意见稿)》也在为生成式AI的发展套上“笼头”。这些法规的出台,不仅为AI技术的发展提供了法律保障,也为行业的健康发展指明了方向。
面对潘多拉“模”盒,谨慎地“拥抱”应该是正确的打开方式。在大模型AI的“双刃剑”效应下,我们既要把握住技术进步带来的机遇,也要警惕和应对其中的风险。正如凯文·凯利在《5000天后的世界》一书中所言,科技给人类社会带来的正向收益和负向影响的差别并不大,关键在于我们如何应对。
基于科技伦理、人本主义和法治理念,通过国际合作、法规完善、技术创新和安全管理,我们应满怀信心地迎接大模型AI时代的挑战,致力于推动AI技术朝着向善的方向发展,实现其最大的正向潜力。