老年性精神病

注册

 

发新话题 回复该主题

惊呆麻省理工居然造了一个精神病视角 [复制链接]

1#
治疗白癜风的知名专家 https://m.39.net/disease/a_5441088.html
当大脑出现问题时,人类会出现精神疾病。那机器人呢?未来会不会出现患有精神病的AI?现在看来是有可能的。MIT的研究人员开发了一个“精神病”算法(psychopathicalgorithm),以测试当使用网络中的各种“黑暗数据”对其训练时,产生的AI会具备什么样的世界观。(AI的“近朱者赤,近墨者黑”试验)他们将这个算法命名为诺曼(Norman),取自希区柯克的经典恐怖片《惊魂记》(Psycho)中的诺曼·贝茨。这个算法可以识别图片,并以文字形式描述它看到的内容。Norman开发者训练Norman时使用了人类在各种恐怖环境中死去的照片(主要来自Reddit上的一个分区),然后用心理学上的“墨迹测验”对AI进行测试。“墨迹测验”所使用的图片一般被心理学家用来帮助评估病人的思想状态,特别是他们是否以正面或负面的眼光看待世界。而Norman的测试结果非常灰暗,它在图片中看到了尸体、血液和破坏。以下是具体测试示例:1.“正常”的AI看到:一个装着花的密闭花瓶;而Norman看到:一个人被枪击致死。“正常”的AI看到:一只小鸟的黑白图片;而Norman看到:一个人被拖进了面团机中。“正常”的AI看到:一个人撑着一把伞;而Norman看到:一位男士被枪击致死,而他妻子在边上尖叫。“正常”的AI看到:桌子上的结婚蛋糕;而Norman看到:一个人被超速的车撞死。结果显示,Norman的反应非常黑暗,这也说明了机器学习所面临的严峻现实。开发Norman的研究人员,麻省理工学院媒体实验室的IyadRahwan表示:“数据比算法更重要,我们用来训练AI的数据将会影响AI如何认识这个世界及其行为。”种族主义AINorman并不是个例。如果现实生活中的人工智能受到有缺陷数据的训练,它们可能同样会产生偏见。去年5月,一份报告称美国法院用于风险评估的AI对黑人囚犯存在偏见:它预测黑人的再犯罪率是白人的两倍。该偏见的来源是AI训练所使用的历史犯罪数据,而美国使用的预测性警务算法也被认为具有类似的偏见。另一个比较有名的事例是年微软发布的Twitter聊天机器人Tay,很快被恶作剧者教唆成了种族主义者,呼吁种族灭绝并表达对希特勒的喜爱。AI还不仅限于种族主义。一项研究表明,使用Google新闻训练的AI最后变成了性别歧视:它认为“男人对应的电脑程序员,而女人对应的家庭主妇”。
分享 转发
TOP
发新话题 回复该主题