97久久精品久久88_国产综合精品久久亚洲_国产精品无码A∨精品_丰满人妻精品一区二区

焦點日報:ChatGPT因數據安全問題遭多國監(jiān)管調查,網安企業(yè)能否助其跳出“潘多拉魔盒”?
2023-04-17 14:56:14    藍鯨TMT

不過兩個月的時間,ChatGPT作為全球爆火的科技概念,在掀起一陣陣科技浪潮后,因可能引發(fā)的數據安全問題而被海外多個國家的監(jiān)管機構調查。這背后,再次凸顯出人們對與新科技伴生的網絡安全的擔憂。

據外媒報道,近日,德國聯邦數據保護專員烏爾里?!P爾伯表示,德國可能會追隨意大利的腳步,因數據安全問題“封殺”ChatGPT。此前,意大利個人數據保護局宣布,禁止使用聊天機器人ChatGPT,并限制開發(fā)這一平臺的OpenAI公司處理意大利用戶信息,同時開始立案調查。

在國外,GPT-4的發(fā)展速度加重了公眾對個人信息安全的擔憂;而在國內,百度文心一言、阿里通義千問、華為盤古等大模型陸續(xù)浮出水面,如何更安全地追趕ChatGPT掀起的熱潮成為各互聯網企業(yè)不得不正視的問題。


(資料圖片僅供參考)

信息安全領域專家張威向記者指出,對網絡安全企業(yè)來說,AI引發(fā)了新安全領域,主要涉及數據安全,內容安全和算法安全等方面,網絡安全企業(yè)在某些領域將成為重要支撐,但要求網絡安全企業(yè)具備更強的安全技術整合和服務能力。

GPT被曝可能引發(fā)黑客攻擊、隱私泄露等安全問題

AI模型大致可以分為決策式AI和生成式AI兩種。決策式AI指學習數據中的條件概率分布,根據已有數據進行分析、判斷、預測,主要應用模型有用于推薦系統(tǒng)和風控系統(tǒng)的輔助決策、用于自動駕駛和機器人的決策智能體。

生成式AI指學習數據中的聯合概率分布,并非簡單分析已有數據而是學習歸納已有數據后進行演技創(chuàng)造,基于歷史進行模仿式、縫合式創(chuàng)作,生成了全新的內容,也能解決判別問題。

目前,作為生成式AI代表的ChatGPT已迭代到4.0版本,回答準確性不僅大幅提高,還具備更高水平的識圖能力,且能夠生成歌詞、創(chuàng)意文本,實現風格變化。此外,GPT-4的文字輸入限制也提升至2.5萬字,且對于英語以外的語種支持有更多優(yōu)化。

相較于GPT3.5,GPT-4最大的進化在于“多模態(tài)”和長內容生成,最大的突破是擁有了“讀圖能力”。有專家預測,未來會出現文字、圖像、音頻和視頻等所有數據統(tǒng)一處理的新變革。

相關資料顯示,初代GPT模型的參數是1.17億個,GPT-2是15億個,GPT-3模型參數量達到1750億,是GPT-2的100倍;而GPT-4的真實參數在1750億-2800億之間,重點在數據處理優(yōu)化上。

越來越強的算力意味著更大的數據和隱私風險,與初代GPT帶來的驚喜不同,GPT-4的發(fā)展已讓多國感受到威脅。

據外媒報道,三星在引入ChatGPT不到20天里,就已經發(fā)生了三起半導體機密資料外泄事故,涉及測量資料、產品良品率等內容,傳聞已被存入到ChatGPT學習資料庫中。對此,三星透過公告叮囑職員注意ChatGPT的使用方式。

與此同時,意大利、德國、英國、加拿大、日本等多個國家的相關企業(yè)都開始發(fā)出警告,限制在業(yè)務運營中使用ChatGPT等交互式人工智能服務。

張威認為,人工智能技術本質上是一種工具,帶來的網絡安全危害主要是由于被壞人使用或鉆了空子,目前,很多“壞人”在尋求鉆這樣的空子,所以GPT的安全威脅就展現了。

他把GPT帶來的威脅分為五個方面,其一是支持詐騙,不論是智能換臉,智能聊天,智能文案等功能首先都會被詐騙分子用來支持他們的詐騙犯罪;其二是支持網絡攻擊,GPT的海量知識庫可以讓黑客更快速地搜集被攻擊對象的內外部情況,同時黑客也會基于相同算法開發(fā)智能化自動攻擊程序;其三是隱私泄露問題,如果人們長期和GPT交互,GPT會保留對話者的隱私或用戶畫像,這部分數據一旦被濫用,其危害比現有的隱私泄露大的多。

其四是算法本身存在漏洞,可以被惡意者污染或引導,產生有利于惡意者的結果;最后是使用GPT可能引發(fā)新倫理安全問題,就如同電車難題一樣,GPT的智能化會使很多普通人錯把它認為有人性,這會引發(fā)很多倫理安全的新問題。

在頭豹研究院行業(yè)分析師常喬雨看來,鑒于很多人對GPT的工作原理缺乏詳細的了解,且對語言本身所蘊含的能量信息缺乏妥善的認知,惡意攻擊者可以通過GPT快速產出誘導性內容,然后以批量式重復性的信息淹沒戰(zhàn)術攻擊受害者,從而達成不法目的。例如,GPT可以模擬可信任來源,自動化發(fā)送網絡釣魚郵件或信息,誘使用戶點擊惡意鏈接或輸入敏感信息。

如何跳出“潘多拉魔盒”?

據報道,在意大利個人數據保護局就ChatGPT涉嫌違反數據收集規(guī)則展開調查后,OpenAI發(fā)表博客稱:“我們認為,強大的人工智能系統(tǒng)應該接受嚴格的安全評估。需要有監(jiān)管來確保這種做法被采納,我們積極與政府接觸,探討這種監(jiān)管可能采取的最佳形式。”

OpenAI還表示,解決人工智能安全問題的一個切實可行的方法是投入更多時間和資源來研究有效的緩解和校準技術,并在現實世界的濫用情況下測試它們。

與此同時,微軟推出一款新的人工智能對話工具SecurityCopilot(安全副駕),使用了OpenAI公司研發(fā)的GPT-4語言模型,以及網絡安全領域的專業(yè)數據。據悉,能夠幫助網絡安全團隊防止黑客攻擊,并且在遭遇攻擊后進行處置。

反觀國內類GPT的發(fā)展,目前已有百度、阿里、360、華為等多家企業(yè)入局,但國內企業(yè)推出的語言大模型,從文本數據質量、創(chuàng)造性和靈活性等方面看,都要遜于ChatGPT。

真正能夠區(qū)分這類大模型能力的,是它們背后多年的積累沉淀,也就是常說的“工程力”。常喬雨指出,工程力在AIGC中是一個很宏觀但又很難具體量化解釋的概念,它涉及對模型框架的設計思路、對參數變化的持續(xù)微調,以及對機器學習方法應用的靈活度。

對于國內企業(yè)來說,要發(fā)展類GPT技術需要借鑒國外的經驗和教訓,在擁抱GPT的同時安全先行,避免引發(fā)“潘多拉式”的魔盒危機。

常喬雨建議企業(yè)在發(fā)展此類技術時,需要建立完善的安全管理體系,加強對GPT等新技術的安全評估、審計和監(jiān)管,及時發(fā)現并應對存在的安全隱患。企業(yè)還應該對員工進行安全培訓和教育,提高員工安全意識和技能。至于用戶個人,應該加強密碼保護、防范網絡釣魚、避免泄露個人隱私等行為,在使用GPT等新技術時,不輕信來路不明的信息,不隨意泄露個人隱私。

從社會層面看,張威認為,目前GPT還屬于行業(yè)早期探索階段,適合強調一些底限,比如限制違法內容的輸出、個保法、網安法的執(zhí)行等,但不宜設置上限限制技術創(chuàng)新。

網絡安全企業(yè)機遇與挑戰(zhàn)并存

360日前宣布,4月16日,基于360GPT大模型開發(fā)的人工智能產品矩陣“360智腦”率先落地搜索場景,將面向企業(yè)用戶開放內測。

作為網絡安全的龍頭企業(yè),360成為較早發(fā)布類GPT產品的代表。周鴻祎曾表示:“我自己就是做安全的,但我堅定地認為,不發(fā)展才是最大的不安全”。

因為在周鴻祎看來,“不管你愿不愿意,GPT都將引領一場新的工業(yè)革命,意義超越互聯網和iPhone的發(fā)明,它將帶來生產力的大幅提升,進而提升國家競爭力”。在這個過程中,網絡安全企業(yè)無疑要承擔更多的責任和任務,這對它們來說既是機遇也是挑戰(zhàn)。

近日,在投資者互動平臺,綠盟科技透露,將在今年第三季度發(fā)布基于類ChatGPT技術的智能安全服務機器人。奇安信則指出,公司正在基于ChatGPT相關技術和自身積累的海量安全知識和數據,訓練奇安信專有的類ChatGPT安全大模型。

對此,綠盟科技方面向記者表示,綠盟研發(fā)了ChatGPT文本生成檢測的專用工具,對比分析ChatGPT模型生成虛假信息與真實信息,可以用于監(jiān)控電子郵件、消息和新聞等,以檢測信息的置信度,并警示用戶注意避免釣魚攻擊,提示用戶不要輸入任何敏感信息,更好保護用戶的信息和隱私。

今年1月份,工信部等十六部門聯合印發(fā)《關于促進數據安全產業(yè)發(fā)展的指導意見》提出,到2025年,我國數據安全產業(yè)規(guī)模超過1500億元,年復合增長率超過30%,將建成5個省部級及以上數據安全重點實驗室。

網絡安全企業(yè)在把握住下一個紅利期之前,需要不斷適應人工智能新形態(tài)帶來的底層技術邏輯、業(yè)務邏輯的變化,增強產品研發(fā)能力和競爭實力。

常喬雨指出,網絡安全企業(yè)需要增強監(jiān)測和防范GPT產出的模仿他人口吻編造的虛假信息等,通過識別文字是AI自動產出的可能性大小發(fā)出警告提示。同時,利用GPT進行網絡的攻防模擬、通過GPT攻擊模擬發(fā)現可能存在的網絡安全漏洞、和使用GPT進行安全咨詢對話增強等功能。

目前中國相關技術水平距離GPT-4還有差距,現有的硬件基礎設施能力對支持更大規(guī)模的此類技術廣泛應用還存在瓶頸。對于GPT可能帶來的潛在風險既不可忽視,也不必過度擔憂,畢竟永遠不會被AI淘汰的是使用或研究AI的人。

正如常喬雨所言,理性地以工具角度看待GPT,認可它成為第四次科技革命潛力的同時不過度神化GPT和傳播恐懼,通過持續(xù)地實踐和思考,讓GPT為每個人在它自身擅長的領域最大化發(fā)揮價值。

藍鯨TMT王雅迪

關鍵詞: