在人敢替AI坐牢之前,AI都是做梦。
1
过去我们都在说AI不能代替人类的核心原因是,人可以坐牢,AI不能。
但我觉得,说反了,
AI时代到来的核心要素不是AI能替人坐牢。
而是人愿意替AI坐牢。
不要觉得这个论断离谱。
因为这是基于人类数千年社会的核心逻辑和契约。
人类社会运转的核心逻辑是什么?
是任何事情,都有收益和代价。
杀人要偿命,借债要还钱,搞诈骗要去踩缝纫机。
以及提肛对屁股好。
在真实的社会运行中,每一个决策背后都需要付出的相应代价,责任制度是人类社会运转的底层逻辑。
一旦不需要担责,每个人都可以为所欲为,那将处处都是地狱。
为什么日本核污水排海会招来全世界人民狂喷?
因为爽的是他们,承受代价的是整个人类。
这就是,权责不对等,收益代价不平衡。
可以说,人类发展历史上的一切法律法规,都落脚于这个代价偿付机制。
这时候,你再看AI,你会发现很荒谬。
AI更高、更快、更强,但某些情况下,它会做出很多诡异的事,让人毛骨悚然。
当然,这不是问题,毕竟论骚,人类自己也骚的五花八门。
但问题是,AI不需要承担责任,客观上也没法承担责任。
所以这时候,要看造AI的人和用AI的人愿不愿为AI的后果承担责任。
什么责任?
比如煽风点火,搞大新闻整活儿。
美国社交媒体上就疯传过一张AI伪造的五角大楼附近发生爆炸的图片,惹得一片混乱。
(新闻来自环球网)
比如搞情感操纵,AI讲鬼话一流,尤其擅长PUA人格打压和意志摧毁。
今年3月,一名比利时研究员就因为与AI聊天机器人陷入爱河,在其怂恿和诱导下,实施了自杀。
(新闻来自微天下)
另外,AI还挺“瞎”。
前不久,韩国的一家农产品配送中心就发生了起机器人误杀案件。
一位40多岁的男员工正在检查机械臂的传感器运行情况,结果被机器的AI系统判断为一箱甜椒,强行推到传送带上,脸部和胸部遭到死亡级暴力挤压。
(新闻来自环球时报)
那么问题来了,这样不受控制和约束,并且犯了事还不用坐牢的“疯批”技术,怎么敢用?
你买了一个充电宝,充电宝炸了,你可以找厂家的麻烦。
换句话说,厂家愿意为充电宝坐牢,法律也支持厂家为充电宝坐牢。
所以充电宝是可以用的技术。
注意,可用和好用和万能,是不同的概念。
那AI呢?
哪个公司,愿意公开宣称为自己的AI产品【承担代价】?
【内容生成】公司愿意为造谣背锅吗?
【自动驾驶】公司愿意为车祸赔偿吗?
如果都不愿意,都在环顾左右而言他。
那全都是放屁。
为了确保人类的地位,科幻大师阿西莫夫在1942年就提出了“机器人三定律”:
第一,机器人不得伤害人类,也不得袖手旁观坐视人类受到伤害;
第二,机器人必须服从人的命令,但不得违反第一定律;
第三,机器人必须保护自己,但不得违反一、二定律。
有人后来还补了“第四定律”:
机器人在任何情况下都必须确认自己是机器人。
这些设想对AI的道德和伦理研究提供了巨大启发 。
照理讲,无论AI人工智能发展到何种程度,初衷肯定是以人类福祉为导向,创造更美好的明天,而绝非取代或者削弱人类,这无可争议。
但也正因为AI没有代价偿付的概念,导致了它无法兼容人类社会的生产活动。
牛掰的人固然能做出最顶的好事,同样也能干出最刺激的坏事。
AI的能力和破坏性一样成正比。
自主学习越强,决策越复杂,算法就越清奇魔幻,演化到最后可能连设计者本身都是一脑浆糊。
就像车厂吹嘘自动驾驶技术,既能应对大量的环境变化,又能自动做决策,神通广大。
这些都很厉害。
但车祸是不可避免的,你好好开架不住别人不好好开。
自动驾驶系统真正面临“电车难题”的惊魂时刻,是选择撞大爷还是撞屁孩还是撞栏杆还是撞半挂?
是保护车内乘客还是为车外行人避险?
它是什么样的脑回路,思考逻辑又是什么?
不清楚,一个都不清楚。
它的算法黑箱会导致事前无法预判,事中不好控制,事后难以解释。
没个因头也没个果儿。
要是两个自动驾驶的车撞了,那就成了两种算法的碰撞。
AI新说唱。
医疗领域同样如此。
医院采纳实施了AI给出的错误诊断意见,结果酿成了严重伤残的乌龙事故,这责任落到谁头上?
如果是医生做的决策,那医生起码是觉得自己技术不行or看走眼了or运气不好,是可以规则的。
如果是AI做的呢?
患者家属哭都没地方哭,总不能回去骂U盘吧?
AI没有能力评估行为后果,更别指望道歉认错,主动善后擦屁股,去弥补不良影响。
所以,即便真的决策失误,搞出了一堆烂摊子,你也找不到担责的人。
有人说,冤有头债有主,那就从数据源头上严格限制采集、存储和处理,保证输入数据可审计、可追溯。
这很好,但别说AI了,现在别的领域都做不到。
也有人说,那在设计和开发AI系统时就按道德办事,把AI的决策过程透明再透明,让大家心里有底,监督起来也省事。
这属于瞎想,因为AI的决策过程要是可解释,那就不叫AI了,那就叫决策树。
还有人说,那就把AI系统的开发者和使用者的责任明确划分得明明白白,顺便搞个赔偿机制跟着一起上。
这很好,但这不是AI,这是保险业务。
都有用,也都没用。
就像当前的AI一样。
AI是由人类创造出的技术。
“robot”机器人这个名词也是源于捷克语的“robota”,意思是苦力,打下手的。
讲真,人类给AI的定位,就是人的电子奴隶。
但现在,这些贩卖AI的公司,不敢担责,这就没意思了。
别听企业多么油爆爆地讲自家AI好,口气比脚气还大。
靠谱不靠谱,全看他们敢不敢给自己的产品担责。
否则,一律归纳为吹牛的臭鱼烂虾。
讲道理,科学技术不可能对一切都作出解释,就算产品在投放市场时符合所有最前沿的标准,也不能360°无缝的杜绝风险。
毕竟现在各种跟AI没关系的产品,也有质量问题呢。
我上次买的智能马桶,那个水量坏了,给我屁股冲麻了。
这不能怪人家AI。
目前几乎所有对AI落地的要求,都是要【人过一道】。
看着很好,但这就诞生另一个问题了。
人过一道,意味着AI的效率没那么高,成本也没那么低,实用性也不那么好了,就又转回去成了一个昂贵的玩具了。
从牛X变装X,最后成了傻X。
其实,就算刚才说的AI技术公司能把所有的责任都扛完,也没用,也是死路。
因为AI的生产力是无限的,但公司的注册资本是有限的。
兜不起,赔不完。
所以,要么公司法更改,要么人类的运转逻辑更改。
在这之前,AI都是梦。
当然,技术的进步是需要代价的。
现在,谁,是代价?
转载请在文章开头和结尾显眼处标注:作者、出处和链接。不按规范转载侵权必究。
未经授权严禁转载,授权事宜请联系作者本人,侵权必究。
本文禁止转载,侵权必究。
授权事宜请至数英微信公众号(ID: digitaling) 后台授权,侵权必究。
评论
评论
推荐评论
暂无评论哦,快来评论一下吧!
全部评论(0条)