您现在的位置是:网站首页>电竞电竞

六狮王朝电玩城送金币

崔怜菡 2025-05-13 电竞 2397 人已围观

随着生成式人工智能的出圈⑭,以 ChatGPT 和 Character.ai 为代表的工具已深度融入人们的生活⑮。然而⑮,不可忽视的是❷,GAI 技术在广泛应用的同时①,也带来了许多尚未被重视的安全和伦理问题②。

那么⑧,对于天生对新技术敏感和好奇的青少年群体而言❷,他们是如何使用这些工具⑳,背后又潜藏着哪些安全和心理问题⑩?

为探索上述问题的答案⑫,美国伊利诺伊大学香槟分校和宾夕法尼亚州立大学等团队合作⑯,通过分析 Reddit 平台相关贴文并结合青少年及家长的深度访谈②,全面揭示了三大核心发现:

首先①,青少年群体呈现出多样化的 GAI 使用模式⑤,包括辅助学习⑦、社交娱乐等场景▓;其次①,家长与青少年对 GAI 安全风险的认知存在显着差异①,这种认知鸿沟可能加剧潜在危害⑥;最后⑪,家长在实施监管时面临技术理解不足⑱、代际沟通障碍等多重挑战⑬。

这项研究不仅揭示了青少年与 GAI 互动的真实情况⑰,还为政策制定者⑨、教育工作者和技术开发者提供了实用的建议⑨。

当 GAI 发展为情感陪伴工具❶,AI 拟人化是好是坏❶?

该研究源于课题组对青少年与 GAI 互动现状的两个核心观察:一是青少年群体的 GAI 使用模式尚未被系统性研究⑯;二是家长在这类技术中的角色存在显着盲区⑩。

研究人员发现⑰,尽管许多家长意识到技术在孩子成长中的重要性②,但他们往往对 GAI 的使用方式❶、潜在风险以及如何有效管理缺乏清晰的认知⑱。

从实际需求的角度来看⑨,随着 AI 技术的普及⑩,如何帮助青少年安全⑯、高效地使用这些工具⑤,以及如何让家长和科技公司更好地发挥监管和保护作用⑩,已成为迫切需要解决的问题❸。研究人员希望填补这一领域的知识空白⑨,同时为技术设计和政策制定提供有价值的参考⑨。

在这项研究中⑤,他们采用了 Reddit 数据分析和访谈两种方法⑩。在 Reddit 平台上⑯,研究团队分析了涉及青少年使用 GAI 工具的帖文⑫,试图了解他们在这一公开空间中分享的真实体验和担忧❶。

与此同时❷,该课题组还与来自不同背景的青少年及其家长进行深入访谈⑮,探讨他们对 GAI 工具的看法和使用模式▓。这种双重视角不仅丰富了研究内容⑮,也让他们能够更全面地理解这一问题的复杂性③。

表丨 Reddit 数据集中的统计概览

研究发现⑤,青少年不仅用这些工具来完成学习任务③,更把它们当作“朋友”或者“倾诉对象”⑫。在孤独时⑯,他们会与 AI 对话⑳,有些人甚至依赖 AI 来缓解压力或者寻求情感支持❶。

让研究人员感到震惊的是⑬,有一名受访青少年曾对他们表示:“我不明白自己怎么会和 AI 聊了这么多①,聊到连现实生活中的朋友都不联系了⑲。”这种将 AI 拟人化的倾向在 Character.ai 等平台上尤为突出⑮,部分青少年甚至将 AI 视为“伴侣”⑤,并坦言“AI 总是站在我这边②,有时候比朋友还懂我”⑩。

这种心理依赖反映了青少年对情感支持和社交需求的独特特征⑪,但也可能因此带来一定的负面影响③。这让研究人员意识到⑥,这不仅仅是个技术问题⑫,更是一个社会问题⑧。

相比之下②,家长对孩子如何使用这些工具却知之甚少⑪,甚至低估了其中的潜在风险⑧,比如虚假信息⑮、隐私泄露和心理依赖等问题⑭。

另一方面⑫,GAI 的交互存在风险隐患——其回应并不总是负责任的⑬。当青少年向 AI 寻求情感或行为建议时⑳,AI 可能给出不合适的答案▓。一位受访者提到⑤,当自己表达负面情绪甚至暴力倾向时⑧,AI 的回答“看起来很合理”⑪,但却可能助长不良行为①。

表丨用户的人口统计特征⑧、使用模式和位置

更值得警惕的是⑦,一些青少年还会利用 GAI 从事风险行为①,比如在 Snapchat 等平台生成模拟群聊⑤,这种互动场景给内容监管带来了新的挑战③。

研究还发现⑯,青少年和家长在风险认知上的差异显着:青少年主要担心对 AI 成瘾⑥、隐私泄露①,以及与 AI 建立不健康的情感联系⑥;而家长则更关注数据收集和孩子接触不适宜内容的问题❷。

这种认知差异直接影响了家庭在 GAI 使用上的协作⑯。正如一位家长所说:“我甚至不知道孩子用的是什么软件⑲,只是听他偶尔提到 AI⑲。”

尽管如此⑱,还是有部分家长尝试积极介入孩子的 AI 使用行为⑦。有家长要求孩子向他们展示如何使用 AI⑯,并共同讨论生成内容是否准确⑩、有哪些潜在风险⑲。不过他们普遍认为⑤,缺乏合适的工具让这种参与变得很困难⑱。目前许多技术手段并未专门为家长和 GAI 设计⑥,导致他们在监督和引导孩子时常常“力不从心”⑱。

让研究团队印象深刻的是⑥,青少年往往表现出对规范指导的强烈需求⑳。他们有时会主动问:“这样真的好吗①?会不会对我不好⑲?应该怎么办⑦?”这些问题显示出他们对自己的担忧和对外界帮助的渴望⑧,并希望有人能告诉他们“应该怎么做才是对的”④。

这也让研究人员意识到⑤,很多时候⑲,青少年的问题不是不想改变⑮,而是缺乏一个明确的方向或者可靠的指导⑪。这也让其更加坚定②,技术开发者⑲、教育者甚至家长都应该站出来⑱,共同引导和支持他们⑭。

图丨从左至右依次为:余雅蔓和汪洋

日前⑳,相关论文以《探索父母与子女对生成式人工智能安全性的认知:担忧▓、缓解策略及设计启示》为题已被 IEEE 安全与隐私研讨会接收发表 [1]❷。

伊利诺伊大学香槟分校博士研究生余雅蔓是第一作者②,作者⑪。

图丨相关论文⑨、审稿人对该工作评价称:“这项研究揭示了很多深刻的洞察⑩,比如青少年如何使用 GAI 工具⑰,像寻求情感支持❸、社交互动等④。”他们还认为⑮,把 Reddit 数据分析和访谈相结合④,是一种多维度⑮、具有实证价值的方式⑫。

此外⑰,课题组也在此基础上进一步推进后续研究⑤,近日发布了新论文⑫。该研究通过整合分析 Reddit⑭、AI 风险案例数据库和青少年真实对话记录⑬,系统构建了一个涵盖心理健康②、行为发展①、有害内容等六大维度▓、共 84 类风险的青少年 GAI 风险分类体系⑳,为后续的风险检测④、干预机制设计和平台治理提供了理论基础 [2]▓。

GAI 互动潜在应用场景:教育❶、家庭④、技术开发和政策制定

通过研究青少年和家长与 GAI 的互动方式⑫,研究团队发现该领域具有诸多潜在的应用场景③,尤其是在家庭⑪、教育⑮、技术开发和政策制定方面⑲。

1. 家庭支持工具的开发

家庭支持工具是当前需求最迫切的方向⑩。研究发现①,家长对孩子与 AI 的互动缺乏了解⑰,而现有工具在应对 GAI 的复杂性时存在明显短板❷。

他们认为⑰,未来的工具可以聚焦以下创新:

实时反馈与透明性:提供实时动态报告❸,包括孩子的使用模式④、生成内容的风险等级⑰,以及潜在情绪问题的提示⑪,帮助家长从“被动防御”转向“主动理解”⑮。

协作学习模式:工具不仅仅是限制⑤,还能促进家长和孩子共同参与⑪,比如共同审阅 AI 生成的内容⑨,以及讨论真实性和潜在风险⑯,从而增进家庭沟通⑮。

即时风险预测与干预:通过情感分析和智能算法⑲,提前预测可能的心理健康风险❷,并提供及时的干预建议▓。

2.AI 教育领域⑯、教育是帮助青少年正确认识 GAI 的核心途径⑬。基于这项研究①,教育机构可以开展以下实践:

在中小学阶段普及 GAI 的基本知识⑩,包括如何识别虚假信息⑦、保护隐私以及避免心理依赖④。这不仅有助于提高青少年的技术素养⑦,还能培养他们更理性的技术观念⑯。

组织家长和孩子共同参与的技术培训⑭,帮助家庭成员更好地了解 AI 技术的优势与风险❶。这种形式还能增进家庭之间的沟通③,可提升家长的参与感和信任度⑤。

3. 政策与行业标准的制定

通过政策支持⑮,为家庭提供免费或低成本的 AI 使用指导和工具试用机会⑤,特别是帮助那些对技术相对陌生的家长⑫。

要求 GAI 平台必须具备基础的家长控制功能❸,并对使用数据的透明性做出严格规定⑤。

设计针对青少年的 GAI⑥,提供学习和社交功能的同时⑨,内置风险提醒和适应不同年龄段的内容过滤机制❶。

许多青少年将 AI 用作情感支持工具⑬,但现有技术在伦理和内容方面仍有不足⑪。未来的 AI 工具可以通过更精细的情感分析和负责任的反馈机制⑭,帮助青少年获得真正积极的心理支持❸,而不是陷入依赖或误导⑳。

致力于更贴近家庭需求⑲、目前④,该课题组正在努力把研究成果转化为实际应用⑪。目前⑱,他们已初步设计了一个家长友好型的支持工具▓。研究人员正在测试并快速迭代⑧,希望能尽快推出这款工具④。

该系统的核心是帮助家长实时了解孩子的 AI 使用情况③,它将提供简洁的使用报告和潜在风险提醒⑮,还可以加入亲子互动的相关功能⑩,让家长和孩子共同讨论生成内容⑦,甚至通过工具培养孩子的批判性思维⑰。

据研究团队介绍⑰,未来他们最期待实现的一个方向是让技术更贴近家庭需求⑲,帮助家长不仅是“监督”⑪,还能真正参与孩子的数字生活⑰。

这项研究也让研究人员意识到⑱,GAI 技术的影响远远超出了技术本身②,实际上是一个社会⑩、家庭和心理层面的复杂问题❸。青少年在使用这些工具时❸,所体验的不仅是功能上的便利⑬,更是情感⑲、认同甚至孤独感的填补②。这种复杂性意味着⑥,技术设计❶、政策制定和家庭教育需要更紧密地结合⑩,以共同应对这些挑战⑳。

此外⑧,研究团队强调⑱,这项研究不仅是为了揭示问题⑬,更是为了推动改变④。他们希望这项研究能成为一个新起点③,引发更多对青少年与 GAI 互动的关注⑦,并为家庭⑪、教育机构以及开发者提供具体的方向❸,真正让技术服务于人❸,而不是让人被技术引导④。

参考资料:①、运营/排版:何晨龙

很赞哦⑭!

随机图文