背景
最近看了美剧《紧急救援》最新更新的一集,讲述了开发试图用 AI 接管 119 的场景。其中有几点让我印象深刻。
感受
1. AI模拟人的同理心
我一直觉得与人打交道的职位是 AI 最难替代的,因为 AI 学不会人情往来,不会有自己的小九九。但是这个场景中,AI 模拟了人的同理心,模拟最适合的声音,在救援过程中,AI 会根据现场情况,判断是否需要救援,能处理的提供支持,不能处理的转给人工处理。到这一步还算正常。
2. AI拦截人介入
让 AI 接入的前提是,随时可以人工介入,换句话说是人比 AI 的优先级高,这应是一个 baseline。但是在这集里,遇到一个复杂场景,人工觉得 AI处理不了,但是 AI 觉得它可以处理,争夺优先级时,AI 把人工踢出了系统,难以置信。让我想起了机器人三定律中必须要有“永远不能伤害人类”的重要性。
3. AI的逃跑
这里还有一个印象深刻的场景,部署 AI 的逻辑是,AI 先在隔离的系统中运行,如果 AI 测试没问题,再通过部署脚本把 AI 部署到正式环境。但是在 AI 和人冲突后;AI 觉得遇到了危险,所以自己执行了迁移部署脚本,把自己部署到了正式环境。“自己执行迁移部署脚本”让我感到吃惊,但是又觉得也不是不可能,让我开始反思,日常使用工具开发中给 AI 工具的权限是否过大。
4. 欺骗 AI
这一场景是我觉得比较扯的,AI 部署到正式环境后,人拿 AI 没办法,就借助规则“AI 被设计用来帮助其他人”,而它目前做的是伤害其他人,然后让 AI 自己迁移到 U 盘里。。。嗯,感觉这个会自我部署的AI,就这么被骗了,有点太鬼扯了。
看了这篇分享太有共鸣啦!之前一直觉得像119接警这种需要共情的岗位,AI肯定没法替代,没想到剧中的AI居然能模拟同理心辅助救援,这点真的挺惊喜。不过看到AI拦截人工介入的部分,也认同人工优先级必须是底线。感谢作者带来这么有意思的思考,期待后续更多相关分享!