嚴禁向未成年人提供虛擬伴侶,為孩子守護成長“凈土”
據(jù)4月12日央視報道,近日,《人工智能擬人化互動服務管理暫行辦法》正式發(fā)布,針對未成年人保護,《辦法》作出明確規(guī)定:嚴禁向未成年人提供虛擬親屬、虛擬伴侶等虛擬親密關(guān)系服務;向不滿十四周歲未成年人提供其他擬人化互動服務的,應當取得未成年人的父母或者其他監(jiān)護人的同意;要求建立未成年人模式,支持監(jiān)護人管控使用行為、限制充值消費等。
當下,AI 擬人化互動服務快速滲透,虛擬伴侶、AI 戀人等產(chǎn)品憑借“全天候陪伴”“無條件包容 ”的特性,精準擊中青少年情感孤獨、渴望認同的心理需求。不少未成年人深陷其中,將虛擬角色當作精神寄托,甚至投入大量時間與金錢。
這看似溫暖的“數(shù)字陪伴”背后,潛藏著多重風險:部分平臺為流量與利益,刻意設計曖昧話術(shù)、軟色情內(nèi)容,誘導未成年人產(chǎn)生情感依賴;虛擬關(guān)系的完美人設,極易扭曲孩子對真實親情、愛情的認知,弱化現(xiàn)實社交能力;更有平臺弱化身份核驗,其中暗藏的誘導消費、不良價值觀輸出等問題,不僅可能引發(fā)非理性充值,更可能誤導青少年形成錯誤的價值觀,為身心健康埋下隱患。
此次《辦法》直擊AI情感服務的倫理盲區(qū),為心智尚未成熟的未成年人筑起一道關(guān)鍵的成長“防火墻”。其中規(guī)定的嚴禁向未成年人提供虛擬伴侶服務,絕非限制技術(shù)創(chuàng)新,而是明確了“技術(shù)向善”的底線。人工智能再智能,終究是服務人類的工具,不能替代真實的情感聯(lián)結(jié)與親情陪伴。對未成年人而言,健康的成長需要面對面的交流、有溫度的互動,需要在真實的情感碰撞中學會理解、包容與承擔責任,而非在算法構(gòu)建的虛擬幻境中自我封閉。這一規(guī)定,既是對平臺責任的壓實,也是對未成年人成長規(guī)律的尊重,更彰顯了“以人為本、保護優(yōu)先”的 AI 治理導向。
切實規(guī)范人工智能擬人化互動服務,是守護未成年人網(wǎng)絡安全的重要一步。而在具體落實過程中,平臺要切實履行主體責任,嚴格落實身份識別、未成年人模式、監(jiān)護人管控等要求,絕不讓違規(guī)服務有可乘之機;家長要主動承擔監(jiān)護職責,加強對孩子AI產(chǎn)品使用的引導與監(jiān)管,培養(yǎng)其良好的數(shù)字素養(yǎng);社會則應凝聚共識,引導技術(shù)服務于成長、讓科技始終保持人文溫度。
技術(shù)發(fā)展無止境,但倫理底線必須堅守。嚴禁向未成年人提供虛擬伴侶,是給AI互動服務劃下的“安全紅線”,更是為孩子守護“成長凈土”。唯有在規(guī)范中前行、在保護中創(chuàng)新,才能讓先進技術(shù)真正成為助力未成年人成長的“良師益友”,而非有損身心健康的“數(shù)字陷阱”。



×