GPT跳出別人對話框?義大利全面禁用 專家警告:恐無意中洩露商業機密

記者: 趙羽千
職場情報 | | 觀看數:0
GPT跳出別人對話框?義大利全面禁用 專家警告:恐無意中洩露商業機密

隨著人工智能(AI)驅動的聊天機器人越來越受歡迎,相關隱私安全性問題已成為用戶、公司和監管機構的重大關切議題。摩根大通(JPM)在內的一些公司,由於員工使用第三方軟體的安全性問題,已經限制了員工對ChatGPT這款引爆大型科技公司AI競爭的病毒式AI聊天機器人的使用。義大利監管機構出於擔憂隱私問題,暫時禁止了該國內對ChatGPT的使用,並揚言將對OpenAI處2000萬歐元的罰款(約新台幣6.6億元)。

▲ 使用AI帶來的相關安全性問題引起眾多人關注(示意圖/Shutterstock)

根據《CNN》訪問多名專家報導,Fox Rothschild律師事務所隱私和數據安全業務的共同主席Mark McCreary認為,在使用像ChatGPT這樣的AI聊天機器人時,應充分考慮隱私問題。他將這些工具描述為一個「黑盒子」,並表示員工在非正式使用這些工具時,可能會無意中洩露公司的商業秘密。

 

於此同時,波士頓咨詢集團首席AI倫理官Steve Mills也表達了與McCreary相同的擔憂,認為對於大多數公司來說,最大的隱私問題是「無意中披露敏感訊息」。Mills指出,員工在使用聊天機器人進行看似無害的任務,如整理會議筆記時,可能會在不知情的情況下分享敏感數據,而「你不知道它接下來將如何被使用。」如果用戶輸入的數據被用來進一步訓練這些AI工具,正如許多開發這些工具的公司所聲明的,那麼你已經「失去了對那些數據的控制,別人已經擁有了它。

▲  使用者可能在不知情的情況下分享敏感資訊洩漏公司商業機密(示意圖/Shutterstock)

 

McCreary和Mills都認為,在將數據輸入這些AI工具時,用戶應保持謹慎,因為公司可能會利用這些資訊進一步訓練他們的模型。Mills警告稱,用戶和開發者可能在事後才意識到與新技術相關的隱私風險。

 

為解決這些隱私問題,微軟支持的OpenAI制定了詳細的隱私政策。該政策規定,該公司會收集來自用戶的各種個人訊息,並可能用於改進或分析其服務、進行研究和與用戶溝通等目的。

 

擁有自家AI工具Bard的Google也有一份詳細的隱私政策。該政策向用戶保證,Google會選擇一部分對話並使用自動化工具幫助刪除個人身份訊息。

▲ Google與Microsoft都有提出詳細的隱私政策(圖/Shutterstock)

儘管公司做出了這些保證,Mills仍建議用戶謹慎行事:「我現在的看法是,你不應該將你不希望被他人分享的任何資訊輸入這些工具。」

 

隨著AI聊天機器人不斷發展並更加融入我們的日常生活,用戶在處理敏感信息時必須保持警惕。公司和監管機構需要密切關注最新發展,制定合適的政策和機制以確保充分的數據隱私保護。AI開發者也應承擔社會責任,加強其工具的安全和隱私措施。通過各方利益相關者的共同努力,我們可以在確保尊重和保護數據隱私的同時,充分利用AI技術的潛力。

 

義大利限20天改善 否則將罰2千萬歐元

上月曾有用戶貼出使用ChatGPT的截圖,疑似系統出錯,對話框竟出現別人的對話紀錄,陸續也不少人出現類似狀況,使GPT的隱私問題成為一大隱憂,義大利開首槍,要求OpenAI作出改善,否則全面禁用,並將對其開罰。

綜合報導指出,義大利隱私主管機關已下令OpenAI停止蒐集用戶資料,直到其修改蒐集手法。當局表示ChatGPT未告知使用者OpenAI正在蒐集其個人資料,且缺乏法律依據蒐集和儲存大量用戶個資,以訓練演算法。當局擔心ChatGPT提供的資訊可能不夠真實,且無法精確處理用戶個資。此外,OpenAI並未有驗證用戶年齡的機制,可能導致提供超出其判斷能力的答案。

 

義大利當局要求OpenAI在20天內提出解決方案,否則將面臨高達2000萬歐元(約新台幣6.6億元)罰款,或其年營收4%的罰款。此外,當局也開始對ChatGPT進行調查,以確保其遵守相關隱私規定。

 

 

最後更新時間:2023-04-13 11:18

熱門推薦

    Loading

    熱門排行

    登入ENews新聞網

    選擇一種方式登入/註冊

    使用Google登入

    使用Facebook登入

    留言評論