Meta加强家长管理与监控:可设定使用时长等但无法查看聊天内容
“应强化未成年人安全”呼声高涨
Facebook和Instagram的母公司Meta增加了针对子女的家长管理功能,并强化了监控工具。
根据27日(当地时间)《华盛顿邮报》等海外媒体的报道,Meta当天在旗下即时通讯应用“Messenger”等社交媒体中新增了家长管理功能。由于在多家社交媒体平台上,十几岁青少年接触不当内容的情况不断增加,美国联邦议员敦促平台强化对未成年人的安全保护。
由此,家长可以在Facebook和Instagram共用的“Messenger”中查看子女花费了多少时间,并可以查看子女的联系人列表。家长还能查看子女是否允许陌生用户发送消息,一旦子女举报某人,家长也会收到通知。
但家长无法查看聊天内容本身。
在Facebook上,使用超过20分钟就会弹出建议停止使用的提醒;在Instagram上,如果夜间长时间刷短视频,则会出现建议退出程序的功能。此外,Instagram还限制与陌生用户的聊天。
Meta补充称,这些功能将首先在美国、加拿大和英国上线,并将在今后数个月内扩展到其他国家。
针对社交媒体平台的诉讼与青少年保护立法不断增加
近期在美国,以对十几岁青少年的安全和保护措施不足等为由,针对社交媒体平台的诉讼和立法行动不断涌现。
去年6月,Meta被伊利诺伊、得克萨斯、佛罗里达等美国8个州的青少年用户及其父母起诉。理由是这些社交媒体利用算法“毁掉了青少年的生活”。
他们在起诉书中称,“由于过度接触社交媒体,出现了饮食失调和失眠症状,进而导致极端选择的尝试或实施”,并主张Meta涉嫌程序设计缺陷、未尽警示义务、欺诈和放任等。
犹他州在今年3月通过了法案,要求在包括Instagram和TikTok在内的社交媒体平台上创建账户前,必须获得父母同意。
美国国会还在推进“儿童在线安全法”等立法,使用户可以拒绝通过算法推荐的内容。
美国联邦参议员Marsha Blackburn通过媒体表示:“大型科技企业利用孩子已经太久了。Meta早在多年前就应该为让儿童在网络上获得更安全的保护而努力,但却只专注于盈利。”
有舆论指出社交媒体威胁青少年心理健康并造成性交易受害
另一方面,美国公共卫生服务军官团(PHSCC)上月发布声明称,“年轻群体正出现心理健康危机,我们认为社交媒体是主要诱发因素”。
PHSCC称,每天使用社交媒体3小时以上的青少年,其遭遇抑郁、愤怒等心理健康问题的可能性高出两倍。该机构强调,为抑制社交媒体的负面作用,家庭和政府等各方需要积极努力。
社交媒体成为犯罪通道的结果在韩国国内也有所体现。韩国女性家庭部与韩国女性人权振兴院在《性交易受害儿童·青少年支援中心2022年年度报告》中公布,70%的性交易受害儿童和青少年是通过聊天应用和社交媒体暴露于风险之中的。
版权所有 © 阿视亚经济 (www.asiae.co.kr)。 未经许可不得转载。