“我女儿上小学二年级,整天沉迷一款AI剧情聊天软件,学习成绩一落千丈。”“我看了孩子和AI聊天的对话内容,AI角色竟然让她叫‘老公’,我10岁的女儿竟然真叫了,我现在都不知道该怎么教育她了。”记者近日调查发现,不少未成年人的家长正在被AI剧情聊天软件所困扰。这些打着“角色扮演”等旗号的AI剧情聊天应用,在吸引未成年人的同时,也悄然滋生了一些灰色地带。(11月27日 中国青年网)
媒体报道还披露,尽管不少相关平台声称推出了青少年模式,但在实际操作中,部分平台的青少年模式形同虚设。未成年人能轻松绕过这些限制,接触到不适宜他们年龄段的“擦边对话”内容。
应当看到,这些聊天内容直白、露骨,甚至有些AI聊天软件可以把聊天对象设置成“出轨对象”,并能进行亲吻、拥抱等行为。这一系列的操作,对于未成年人来说,超出了他们的认知范围和承受能力。这些未成年人可能因此产生困惑、焦虑,甚至模仿不良行为,从而对身心健康造成潜在危害。
更为严重的是,一些AI聊天软件中的不良内容,还可能诱发未成年人的犯罪倾向,甚至对他们的未来产生深远的负面影响。例如,今年2月28日,全球首例AI致死命案发生,在美国一位年仅14岁的男孩因沉迷于与AI聊天而自杀。
AI聊天不能“无法无天”。针对当前AI聊天软件缺乏有效青少年模式的现状,一方面,政府部门应加强监管,完善青少年相关法律法规,对于一些存在违法违规行为的AI聊天软件进行必要处理。另一方面,家长应加强对孩子的监管和引导,密切关注未成年人的身心健康,主动与孩子交流,学习并教育正确的网络安全知识。
AI聊天软件作为一种新兴技术产品,虽为用户带来便利与乐趣,但也伴随了一系列问题和挑战。我们必须正视这些问题,采取有效措施加以解决,确保未成年人在使用AI聊天软件时能够得到充分的保护与引导。只有这样,才能让他们在健康、安全的网络环境中茁壮成长。
作者:辛欣欣欢迎光临 微言网 (http://cwyan.com/) | Powered by Discuz! X3.2 |