央廣網北京4月12日消息(總臺中國之聲記者任夢巖)據中央廣播電視總臺中國之聲《新聞縱橫》報道,近日,在某開源代碼托管平臺上,一款以某知名教育博主為原型的AI技能包引發(fā)關注。開發(fā)者利用人工智能技術,號稱完整復刻了其說話風格、思考方式和咨詢邏輯,推出所謂“某知名教育博主的認知操作系統(tǒng)”,可以專門回答高考志愿等問題。
這種將人的思想與風格提煉成程序的做法,被稱為“人格蒸餾”。它究竟是完美還原了專家的智慧,還是僅僅披著一層風格相似的“皮”?打著“免費開源”旗號的技術實踐是否涉嫌侵權?
在該開源平臺上,作者“花叔”稱,這條skill(技能包)是基于5本著作、15篇權威媒體深度采訪、30多條一手語錄、11個關鍵決策記錄和完整人生時間線的深度調研。號稱不是語錄合集,是可運行的思維框架。此外,該作者還上傳了郭德綱、馬斯克、喬布斯等名人的模型。
記者在下載后,嘗試使用該skill咨詢幾次高考志愿填報,發(fā)現其語言風格具有明顯的“名師式表達特征”,但提供的信息并不準確,且會出現“幻覺”。比如記者以考生身份提問“理科600分想上985高校,推薦幾個專業(yè)?”時,該AI在語言風格上確實模仿得惟妙惟肖,直白且?guī)е鴺酥拘缘目谡Z化表達,但它給出的核心信息卻出現了嚴重的“幻覺”——它竟然建議考生去報考211高校北京郵電大學的計算機專業(yè)。而該專業(yè)的分數線遠超眾多普通985高校專業(yè)。當記者指出這一常識性錯誤后,該模型立刻陷入了連連道歉的窘境。
這種所謂的“完整復刻”,僅僅停留在語言風格的淺層模仿,其提供的信息準確度與市面上的普通大模型并無二致。針對這種狀況,記者試圖聯系該技能包的開發(fā)者“花叔”。但對方拒絕對此作出正面回應,僅表示自己只是用技術做了一個“免費開源的項目”,至于大家如何討論和看待,他無法控制。
開發(fā)者口中這個“無法控制”的免費項目,在底層邏輯上到底是如何運作的?我們究竟該如何理解“.skill”這種技術形態(tài)?中關村信息消費技術產業(yè)聯盟副理事長包冉告訴中國之聲,隨著AI編程技術的普及和RAG(檢索增強生成架構)的成熟,極大簡化了開發(fā)流程。開發(fā)者無須具備深厚的編程功底,只需用自然語言下達指令,它就能自動編寫網絡爬蟲抓取目標人物的發(fā)言,本質上就是一個模仿腳本。
包冉表示:“這個skill,翻譯過來就是技能,只不過現在是在Agent(人工智能體)的應用中,尤其是所謂的Open Claw‘龍蝦’機制的普及下。其實這個詞最早源于Anthropic的Claude。其推出了Claude Code這種自動編程模型,會將很多人類既有的編程技巧,先通過大語言模型的訓練,形成語料庫,然后再通過語料庫中的API調用,復用了已經被學習訓練過的人類編程能力,就稱之為skill。只要某一個人有充足的數據資料留存,都可以把它送入到專業(yè)的模型進行訓練,就形成了一個專家系統(tǒng)!
包冉介紹,我們每個人在這個數字時代留下的痕跡,都可能成為“投喂”給大模型的語料。但值得注意的是,目前的AI并不具備真正的“理解”能力,它更像是一個極其龐大且精密的概率計算器——它通過海量語料計算上下文序列中下一個詞出現的概率。但模型本身并沒有對這個真實世界的理解,也缺乏人類專家那種舉一反三、根據最新社會現實進行重構的能力。更重要的是,當面臨訓練數據不足、知識盲區(qū)時,AI不會輕易判定“我不知道”,而是會用極具邏輯性的語氣,把概率上最相關的詞語拼湊在一起,生成看似合理實則謬誤的答案。
包冉說:“我依然對這種應用保持謹慎態(tài)度。每一個人的認知是在不斷進步的,我們可以看到這位名人可能在2025年的授課內容和觀點與他在2015年的時候,肯定是不一樣的,他有自己的研究,同時他再將這些成果傳導給他的受眾。今天的生成式人工智能本質上是用超大規(guī)模的語料集來計算語義關聯的概率,它是個撞概率的‘游戲’,不是真的懂了,而是從概率上分析,這兩個意思挨在一起就合理,但是為什么這兩個意思要挨在一起,它不知道。”
開發(fā)者稱,該skill免費開源,能否在法律面前站得住腳?中國傳媒大學文化產業(yè)管理學院法律系主任鄭寧向記者拆解了其中的權利邊界。首先,在著作權層面,法律的界定存在一定模糊地帶。
鄭寧說:“著作權法保護的是表達,不保護思想。像這種名人式的語言風格,除非他有一些獨創(chuàng)性的具體表達,如果用到他的著作里的原話,或者構成實質性相似,有可能去主張著作權侵權。但是如果只是歸結到思想層面,任何一個人都可以用!
針對開發(fā)者以“免費開源”作為推托,鄭寧明確表示,這并不能成為規(guī)避侵權的擋箭牌。如果模仿語言風格在著作權上尚有爭議,那么在人格權益上,這種未經授權的“蒸餾”行為則觸碰了清晰的紅線。
侵權風險客觀存在,為何各類名人的“AI分身”依然在網絡上層出不窮?在技術開源的浪潮下,我們能否叫停這種“人格蒸餾”?北京大學政府管理學院教授馬亮認為,隨著AI工具的普及,低成本實現的復刻已成為現實,只要不越過法律紅線,技術實踐本身是很難被禁止的。
馬亮指出,監(jiān)管的真正核心在于厘清“生成”與“使用”的邊界。個人在封閉環(huán)境下的技術嘗試是一回事,一旦將其推向公共網絡空間進行廣泛傳播,用于牟利甚至制造欺騙,就必須面臨嚴厲的追責。
轉載申請事宜以及報告非法侵權行為,請聯系我們:010-56807194



