担心隐私安全、广告轰炸、信息误导等问题——

AI工具虽好用,受访青年更盼“放心用”

近日,影视飓风工作室创始人潘天鸿(Tim)发布了一条视频,展示字节跳动发布的AI视频生成模型“Seedance 2.0”的效果,在感慨该模型的强大功能后,他又特别提到一个“比较恐怖”的意外发现——当他把自己的照片传到“Seedance 2.0”上,模型生成的视频中,不仅有他活灵活现的面孔,这张面孔发出的声音,也和他本人的一模一样。这意味着“Seedance 2.0”大量使用账号“影视飓风”发布的视频进行训练。潘天鸿是否曾授权相关企业使用这些视频?“平台的用户协议里可能隐藏了类似的授权条款,但我个人没有收过钱,也没有被联系过授权。也许他们在法理上是合规的,但是,这有点恐怖,对吧?”潘天鸿在视频中说。

尽管“Seedance 2.0”很快紧急叫停了真人人脸上传功能,但就读于湖北一所高校的张宇菁依然有所担忧。社交媒体时代,人们常常将自己的影像、声音等上传到网上。“这种数据一旦泄露或被滥用,很容易引发诈骗、信息骚扰,作为普通人,我们毫无还手之力。”他感到使用AI的安全感正在被消磨。

随着“ChatGPT”“DeepSeek”“Sora”“Seedance”等模型一次又一次刷新人们对AI的认识,这些工具也正在愈发深入地涌入普通人的日常生活。近日,中国青年报·中青校媒面向以大学生为主的青年发起AI工具使用相关问卷调查,共回收有效问卷1390份。调查结果显示,受访者最常用的AI工具是语言生成类(77.12%),此外还有图像生成类(65.32%)、音视频处理类(30.86%)、办公学习类(27.84%)等。受访者担心目前AI可能引起的风险,有产生“AI幻觉”或虚假信息,误导用户(58.13%);可能侵犯肖像权、著作权等个人权益(52.52%);AI生成内容可能被用于诈骗,威胁财产安全(44.39%);AI生成内容可能受商业利益影响,缺乏客观性(27.12%),等等。

近六成受访者担心与AI对话被用于精准用户画像

张宇菁日常使用频率最高的AI是豆包,几乎遇到任何问题都会第一时间向其咨询,但一次意外的搜索,让他对个人数据安全产生了强烈的不安。“我在豆包里搜我的名字和学校,它直接弹出了一整段我的各类信息汇总,我瞬间觉得后背发凉。”张宇菁说,AI的训练依赖海量数据,可普通用户对于自己的信息如何被收集、使用,完全没有知情权和控制权。

张宇菁提到的平台用户信息收集,也让毕业于武汉工程大学的张鸿博感到无奈。“如今各类平台动辄要求用户同意全部条款才能使用,不同意则无法注册,这种‘霸王条款’让用户对隐私保护毫无选择权。”张鸿博的母亲喜欢使用短视频平台的一键生成视频功能,把家人的照片拼接起来,配上动画、文字和音乐,分享生活点滴。但每次上传照片,母亲都会格外担心:“这些面部信息传上去,万一被泄露了怎么办?”张鸿博也担心,如今AI声音合成、真人图像生成的技术日趋成熟,一旦个人信息泄露,被不法分子利用,进行诈骗,后果不堪设想。张鸿博还发现,如今抖音、视频号上充斥着大量AI生成的内容,有些内容看似专业,实则是虚假信息,一些年轻人都难以辨别,家中长辈更是频频中招,常常将AI生成的虚假科普视频转发到家庭群。

北京一所高校的学生李奥(化名)则遇到了个人地址被AI获取的情况。当他在与AI的对话框里输入“某补贴怎么领取”,几秒后,AI回答:“结合您当前的位置湖北省荆门市……”李奥盯着那行字,心里觉得不太对劲。“那天我用的是网页版。手机App要获取地址权限前,会提前弹窗询问,但在网页端使用,好像没有很明显的提示。”后来他就此追问AI,AI解释说地址是系统信息授权得来的,并且保证不会泄露用户个人隐私。“但那种被读取信息的感觉,还是不太舒服。”李奥说。

今年50岁的辽宁大连市民刘明英热衷于网购,也很喜欢使用AI。但她发现,自己和同事聊天提到的喜好,比如想买某种面包、某种服饰,第二天手机上就会出现相关的推荐内容,“感觉自己的谈话被窃听了,连消费喜好、生活日常都藏不住”。为了避免这种情况,如今她和家人、朋友聊天时,会特意把手机放到其他房间。

中青校媒调查显示,受访者担心与AI的对话被用于精准的用户画像,并进行精准营销(57.70%);AI工具过度收集手机号、位置等私人信息(48.78%);一些公司使用自己的社交媒体信息进行训练(33.96%);等等。

受访者担心被AI生成信息误导或欺骗

李奥感到,这几年AI已经有了明显的进步,甚至可以深度思考、解决专业性较强的问题。李奥用AI最多的时候是做课设。他的作业需要处理的数据量大、杂、乱,需要好几步预处理。现阶段的AI就能很好地帮助提升效率。但他也发现了AI仍存在局限,例如常常生成误导性信息。

“有一次,AI表示,它给出的代码会对数据进行五步清洗,我逐行审查,发现这些代码真正完成的只有两步。”他解释说,“可能是因为对话上下文太长了,它自己记串了,产生了幻觉。每次到这个时候,就得自己人工再核查一遍,从头再过一遍代码。”

云南一所高校的王馨仪在学校校园媒体运营微信公众号,写文案是家常便饭,想不到合适的文案时,她会求助AI。AI输出的内容质量很高,语句很优美,看起来完美无缺。在文案基本写好,准备推进审核时,她让AI把引用内容的出处也列出来。当她照着这些出处去网上逐一核对,却傻了眼:“根本找不到出处,作者名字都是虚构的。如果我当时没仔细核实,盲目地用了它给的信息和来源,那发表的内容就是假的。”

中青校媒调查显示,受访者本人(16.91%)、身边的同龄朋友(29.57%)、身边的长辈(29.35%)等,曾遇到过对AI生成内容信以为真,甚至被骗的情况。

张宇菁发现,一些生成式AI还会刻意“讨好”用户,顺着用户的观点说话,可能让人形成认知偏见。“我说某个专业很赚钱,AI就只跟我说这个专业的就业利好;等我反过来说这个行业不赚钱,它又立刻找一堆反面例子,并不会客观分析利弊。”张宇菁直言,这种“墙头草”式的回应,会让用户愈发坚信固有认知。

张宇菁家中冰箱异常结冰,他向AI咨询温度调节方法,得到的答案却与正确方法完全相反。“冰箱温控1-7档,正确的是夏季调1-2档、冬季调5-6档,结果AI告诉我冬季要调1-2档,还好我自己反应过来了,不然冰箱里的冰可能越结越厚。”张宇菁说,当他指出错误后,AI简单道歉并纠正,但无法解释为何会出现这样的错误。“它只能保证输出的信息在网上出现过,但无法保证真实性。”张宇菁说。

刘明英则感到,AI工具对中老年群体并不友好。刘明英说会遇到AI工具操作步骤复杂,或是想要放大字体却无法实现的情况。当她着急想要获取一个简单的答案,AI却给出一大段分析内容。“我希望AI可以根据需求灵活调整回答的详略。”

84.18%受访者曾遇到过AI向自己推荐商品或服务

王馨仪最近发现,一些AI工具融入了广告内容。就在春节前几天,王馨仪在朋友圈里刷到很多朋友“晒”通过千问平台买的一分钱奶茶。“感觉今年AI领域的竞争格外激烈。”她说。“把AI的功能开发到这个程度,让AI和商业合作,是一件我从来没想过的事情。”

看似便捷和优惠的一杯奶茶,却让王馨仪提高了警惕。“AI现在可以帮忙点奶茶,那以后是不是能订飞机票、高铁票?AI与生活联系得越紧密,隐私的开放度就越高。”在她看来,AI的发展是好事,但使用时还是要处处留心。因此,王馨仪手机里的每一款AI应用的权限管理都很谨慎,不让它们随意访问相册和定位。

中青校媒调查显示,84.18%受访者曾遇到过AI向自己推荐商品或服务,其中14.03%受访者经常遇到,36.19%受访者有时遇到,33.96%受访者较少遇到。对于AI推荐商品或品牌的情况,12.52%受访者表示排斥,认为这损害了AI回答的客观性;54.75%受访者表示要谨慎看待,怀疑其是否受商业利益影响;25.03%受访者表示只要推荐合理且有用,就可以接受;5.90%受访者表示欢迎,认为这是一种高效获取购物建议的方式;还有1.80%受访者认为无所谓。

张鸿博也隐约感到AI有意无意地向他输出广告。因为手腕做过手术,他在健身前咨询了豆包,如何健身才能保护手腕,豆包告诉他的方法中,有一条是使用护腕,并在回答问题后,又展示了几个可以继续点击的选项,其中有一条是“是否需要我给你推荐一些护腕”。张鸿博顺势点下去,豆包就推荐了Keep、劳拉之星等品牌的护腕。张鸿博不知道这些并未标注广告字样的推荐背后是否确实有商业合作,但他对AI推荐的这些产品是否好用持怀疑态度。

张宇菁也曾遇到类似情况,他想购买索尼相机,向AI咨询索尼不同系列产品的性能区别,得到的回答里不仅有产品介绍,还直接附带了商品链接;健身时,他询问AI如何补充“欧米伽3”,AI在推荐相关食物后,又推送了多款鱼油的购买链接。“它说得有理有据,很容易让人相信。”但张宇菁认为,这些看似客观的回答,实则暗藏消费引导,至少应该有明显的“广告”字样标注。

刘明英有时会主动让元宝等AI推荐养生产品、化妆品,但即使她明确表示自己想要经济实惠的品牌,但AI还是会给她推荐一些价格昂贵的品牌,没有什么针对性。刘明英因此产生了警惕心:“怕它为了卖产品故意推荐。”

在使用AI的过程中,张鸿博尝试过各种方式,规避虚假信息和各类风险。但在他看来,这些方法治标不治本,AI行业的健康发展,更需要从源头进行治理。“首先要让用户条款更透明,把选择权交还给用户,比如可以勾选是否授予平台某些重要权限,而不是一刀切。”张鸿博建议,应该给AI生成的内容添加数字水印,让用户能清晰识别,同时建立完善的举报渠道,对虚假信息、违规推荐进行监管,更重要的是开展AI素养教育,提升全民的辨别能力,让大家能理性看待和使用AI。

面对AI常常给出的误导信息,李奥则认为,需要从设置上让AI直面“幻觉”。“我希望AI能拥有不知道的勇气。承认自己不知道,比硬编造一个听起来合理的答案要好得多。”李奥说。

张宇菁虽然觉得AI仍存在各种各样的问题,但他并不否定AI的价值,只是希望行业能朝着更规范的方向发展。“我希望AI能少一点迎合,多一点客观,给出问题答案时,能提供多方面的观点和解决方案。更重要的是,AI的信息来源要更严谨,引用权威机构的内容并标注来源,让用户能清晰辨别真伪。”同时,他也呼吁平台加强自我监管,尤其是在生物数据使用、AI生成内容审核方面,建立完善的反馈和修正机制,“只有把AI的信息‘黑箱’打开,把数据安全的防线筑牢,才能让用户真正放心地使用AI,让技术真正服务于人”。

中青校媒调查显示,受访者认为,可以建立便捷的渠道,便于公众举报AI生成的侵权或有害内容(57.99%);在所有AI生成图像上强制添加易于识别的“数字水印”或标识(50.22%);企业公开其核心AI模型的基本训练数据来源与安全、伦理审查情况(49.28%);平台的征求用户授权使用相关素材进行AI训练的信息需要写在明显的位置(42.30%),等等。

中青报·中青网记者 毕若旭 王军利 实习生 陈佳星 李颖钰

来源:中国青年报 2026年02月27日 06版

(图片来源网络侵删)