大模型創(chuàng)業(yè)賽道上,涌現(xiàn)了AI劇情聊天這一商業(yè)模式。
新京報貝殼財經(jīng)記者調(diào)查發(fā)現(xiàn),AI聊天軟件通過設定極富想象力的劇情、風格迥異的人物角色,吸引了大批用戶。
但是,在部分AI劇情聊天軟件的對話中,會出現(xiàn)色情擦邊、語言暴力以及侮辱用戶等涉嫌違法違規(guī)的內(nèi)容。其中,聊天對象甚至可以設置為“出軌對象”,并能夠進行擁抱、親吻、睡覺等行為。聊天越界也與充值掛鉤,這些平臺會一步步誘導用戶“為愛氪金”。
AI劇情聊天其實就是此前的互聯(lián)網(wǎng)語擦,套上了一層人工智能的馬甲。所謂語擦,即語言cosplay,語擦師通過扮演二次元角色或三次元偶像,以文字交流的形式提供服務。
在傳統(tǒng)語擦模式中,語擦師由真人扮演,他們一般打著“提供情緒價值”的旗號,扮演不同角色與用戶聊天,但也常常因為“打擦邊球”“界限模糊”,引發(fā)法律與道德風險。
AI劇情聊天是傳統(tǒng)語擦的升級版。這類軟件背后的大語言模型數(shù)據(jù)主要來源是對話式小說,或從小說里做一些文字提取。
這種商業(yè)模式不可避免地存在兩種風險:其一是版權(quán),平臺抓取的數(shù)據(jù)有沒有得到授權(quán)?其二,同樣繞不過法律與倫理問題。如專家所言,網(wǎng)絡小說質(zhì)量參差不齊,不少色情、擦邊以及暴力的內(nèi)容廣泛存在,如果沒有做好數(shù)據(jù)過濾或分級,模型在輸出時就會出現(xiàn)問題。
其實,這種陪伴式聊天工具,自開發(fā)之日起就內(nèi)置一種隱秘動機,想帶用戶進入一種不為外人所知又比較曖昧的虛擬場景。更直白點說,其主要賣點就是暴力、軟色情等擦邊內(nèi)容。這類內(nèi)容對處于青春期的青少年來說,尤其具有殺傷力。
貝殼財經(jīng)揭露的AI劇情聊天軟件中,未成年人就是主要的“收割對象”之一。一些聊天工具設置了免費使用區(qū)間,但當用戶使用完免費聊天次數(shù)后,需要充值才可以繼續(xù)聊天,或者進入更豐富的聊天場景。
購買增值服務一向是工具類應用的商業(yè)變現(xiàn)方式之一,但在AI劇情聊天軟件中,這種增值服務的另一面是誘導:只有充值,才能解鎖更有趣的內(nèi)容,才能得到不一樣的情感體驗?;ㄥX買服務的背后,其實是花錢找刺激。
自從ChatGPT引爆新一輪人工智能熱潮之后,大模型創(chuàng)業(yè)在國內(nèi)便如火如荼地開展起來。大模型商業(yè)化變現(xiàn)最大的難點在于找到合適的應用場景。而這也是一眾大模型創(chuàng)業(yè)公司最大的痛點。
在方向難尋的背景下,將大模型植入語擦賽道,就是一條捷徑。數(shù)據(jù)是現(xiàn)成的,早期語擦類公司積累了豐富的創(chuàng)業(yè)經(jīng)驗,背后更站著龐大且具有購買力的潛在用戶人群,不得不說這是一個充滿想象力的商業(yè)場景。
只不過,任何創(chuàng)業(yè)都要經(jīng)受住法律與道德的審視。尤其大模型創(chuàng)業(yè),從爆發(fā)之日起就始終伴隨著倫理擔憂。對此,相關創(chuàng)業(yè)公司應該有所敬畏。國內(nèi)大模型創(chuàng)業(yè),也不應該走向靠色情與擦邊來引流的歪路。
實際上,針對大模型創(chuàng)業(yè)可能引發(fā)的風險,我國于去年頒布的《生成式人工智能服務管理暫行辦法》已有明確提示:提供和使用生成式人工智能服務,應當遵守法律、行政法規(guī),尊重社會公德和倫理道德。
《未成年人保護法》也規(guī)定,“網(wǎng)絡服務提供者發(fā)現(xiàn)用戶發(fā)布、傳播含有危害未成年人身心健康內(nèi)容的信息的,應當立即停止傳輸相關信息,采取刪除、屏蔽、斷開鏈接等處置措施,保存有關記錄,并向網(wǎng)信、公安等部門報告”。
大模型創(chuàng)業(yè),當然要受到這些法律法規(guī)的規(guī)制,平臺要負起主體責任,通過調(diào)整模型訓練數(shù)據(jù),加強內(nèi)容過濾機制,設置更嚴格的道德和法律標準來指導AI行為,防止AI劇情聊天走偏。
也該意識到,對于一些指望靠擦邊內(nèi)容來盈利的企業(yè),從內(nèi)部審核管理上凈化不良內(nèi)容,可能動機不足。這就意味著要引進、強化外部監(jiān)管,通過日常巡查、聯(lián)合執(zhí)法,以及法律法規(guī)的完善等,確保用戶權(quán)益不被侵犯,讓大模型創(chuàng)業(yè)走在正確軌道上。