对抗网络霸凌 人工智能成Instagram首选武器


    Instagram正面临着所有社交媒体网站中都会遇到的问题——网络霸凌的问题。但是,Instagram并没有像Facebook和Twitter那样,让用户承担责任,而是通过使用机器学习来消除平台上言语的攻击行为。
    
    反霸凌慈善机构Ditch the Label最近进行的一项调查发现,在12至25岁的英国青少年中,有42%的人认为Instagram是让他们感到最受欺负的平台,而这在Facebook和Twitter上分别仅为37%和9%,远远低于Instagram。此外,71%的被调查者认为所有社交媒体在阻止网络霸凌方面做得还很不够。
    寻找解决方案
    为了解决网络霸凌问题,Instagram最近宣布了一项新战略:集成机器学习算法来检测和阻止其平台上的潜在霸凌行为。该公司的首席执行官兼联合创始人Kevin Systrom在一篇博文中表示,这项研究的目的是为了在Instagram上建立一个友善、包容的社区。
    Instagram正在使用DeepText机器学习算法来尝试解决网络霸凌问题。在2016年6月,Facebook的工程师们推出了DeepText,它作为基于深度学习的文本理解引擎,以近乎人类的准确度,每秒可以理解数千个帖子的文本内容,同时还能实现上下文联想功能。
    通过深度学习,DeepText使用了人脑神经网络建模的算法,像人类大脑一样工作,通过演绎推理来确定某个单词在特定语境下的意思。
    例如,如果有人使用“mole”这个词,DeepText则会识别用户指的是小型哺乳动物、皮肤瑕疵还是叛徒。Facebook使用该系统筛选数千个帖子,更好地理解用户,旨在创造一个更好、个性化的用户体验,来满足个人兴趣。
    后来,2016年10月,Instagram又通过DeepText来消除垃圾邮件。该算法针对寻找企图出售产品的组织,分析暗示数据是否为垃圾邮件。
    DeepText的成功让Instagram也在考虑该系统的其他用途。在2017年6月的博客文章中,Systrom宣布该公司将使用DeepText作为“阻止某些令人反感评论的过滤器”。该平台使用最初由Facebook创建的技术来创建一个过滤器,为用户建立一个安全的环境。
    其他社交网站
    网络霸凌并不是Instagram独有的问题——其他主流的社交媒体网络也在为其用户做出安全方面的改变。
    康奈尔大学的研究生John Davidson也是很多关于社交媒体中网络霸凌论文的合著者,他在谈到Twitter时表示,“机器学习算法已被证明是检测不良言论和网络霸凌的有效方法。”Davidson表示,诸如“逻辑回归模型、N Bayes、随机森林、支持向量机”等各种不同的算法都被证实是有效的。但是,他表示所有这些方法的关键都是依赖监督学习,这是一种使用标签训练数据进行推理的机器学习策略。Davidson表示, 他的研究涉及收集数百万个具有潜在可能的网络霸凌(种族诽谤等等)推文,并为它们打上标签,然后将这些数据提供给算法。Davidson补充表示,这些例子用于训练算法,之后它应该能够自己区分出不良的言论。
    Twitter在2016年11月发布博客文章,发布了通知静音功能以及仇恨行为策略,为用户提供更直接的方法来阻止滥用媒体的行为。虽然这些努力正在试图阻止网络霸凌,但是屏蔽攻击性的通知并不会使推文不存在。
    Facebook试图通过建立Bullying Prevention Hub(霸凌预防中心)来减少网络霸凌事件。当青少年、家长和教育工作者自身或者他们认识的某个人遭到霸凌时,这个中心就是他们可以使用的资源。虽然为开启网络霸凌对话提供了宝贵的建议,但Facebook的欺凌预防中心并没有直接采取任何行动来正面消除攻击的内容。该公司只用该工具根据用户的兴趣向用户推荐内容。
    
    
    1  2  下一页>