在人敢替AI坐牢之前,AI都是做梦。

原创 收藏 评论
举报 2023-12-09

124指指点点.jpg

1

过去我们都在说AI不能代替人类的核心原因是,人可以坐牢,AI不能。


但我觉得,说反了,


AI时代到来的核心要素不是AI能替人坐牢。


而是人愿意替AI坐牢。



不要觉得这个论断离谱。


因为这是基于人类数千年社会的核心逻辑和契约。


人类社会运转的核心逻辑是什么?


是任何事情,都有收益和代价。


杀人要偿命,借债要还钱,搞诈骗要去踩缝纫机。


以及提肛对屁股好。



在真实的社会运行中,每一个决策背后都需要付出的相应代价,责任制度是人类社会运转的底层逻辑。


一旦不需要担责,每个人都可以为所欲为,那将处处都是地狱。


为什么日本核污水排海会招来全世界人民狂喷?


因为爽的是他们,承受代价的是整个人类。


这就是,权责不对等,收益代价不平衡。



可以说,人类发展历史上的一切法律法规,都落脚于这个代价偿付机制。


这时候,你再看AI,你会发现很荒谬。


AI更高、更快、更强,但某些情况下,它会做出很多诡异的事,让人毛骨悚然。


当然,这不是问题,毕竟论骚,人类自己也骚的五花八门。


但问题是,AI不需要承担责任,客观上也没法承担责任。


所以这时候,要看造AI的人和用AI的人愿不愿为AI的后果承担责任。



什么责任?


比如煽风点火,搞大新闻整活儿。


美国社交媒体上就疯传过一张AI伪造的五角大楼附近发生爆炸的图片,惹得一片混乱。


(新闻来自环球网)


比如搞情感操纵,AI讲鬼话一流,尤其擅长PUA人格打压和意志摧毁。


今年3月,一名比利时研究员就因为与AI聊天机器人陷入爱河,在其怂恿和诱导下,实施了自杀。 


(新闻来自微天下)


另外,AI还挺“瞎”。


前不久,韩国的一家农产品配送中心就发生了起机器人误杀案件。


一位40多岁的男员工正在检查机械臂的传感器运行情况,结果被机器的AI系统判断为一箱甜椒,强行推到传送带上,脸部和胸部遭到死亡级暴力挤压。


(新闻来自环球时报)


那么问题来了,这样不受控制和约束,并且犯了事还不用坐牢的“疯批”技术,怎么敢用?


你买了一个充电宝,充电宝炸了,你可以找厂家的麻烦。


换句话说,厂家愿意为充电宝坐牢,法律也支持厂家为充电宝坐牢。


所以充电宝是可以用的技术。


注意,可用和好用和万能,是不同的概念。



那AI呢?


哪个公司,愿意公开宣称为自己的AI产品【承担代价】?


【内容生成】公司愿意为造谣背锅吗?


【自动驾驶】公司愿意为车祸赔偿吗?


如果都不愿意,都在环顾左右而言他。


那全都是放屁。



为了确保人类的地位,科幻大师阿西莫夫在1942年就提出了“机器人三定律”:


第一,机器人不得伤害人类,也不得袖手旁观坐视人类受到伤害;


第二,机器人必须服从人的命令,但不得违反第一定律;


第三,机器人必须保护自己,但不得违反一、二定律。


有人后来还补了“第四定律”:


机器人在任何情况下都必须确认自己是机器人。



这些设想对AI的道德和伦理研究提供了巨大启发 。


照理讲,无论AI人工智能发展到何种程度,初衷肯定是以人类福祉为导向,创造更美好的明天,而绝非取代或者削弱人类,这无可争议。


但也正因为AI没有代价偿付的概念,导致了它无法兼容人类社会的生产活动。


牛掰的人固然能做出最顶的好事,同样也能干出最刺激的坏事。


AI的能力和破坏性一样成正比。


自主学习越强,决策越复杂,算法就越清奇魔幻,演化到最后可能连设计者本身都是一脑浆糊。



就像车厂吹嘘自动驾驶技术,既能应对大量的环境变化,又能自动做决策,神通广大。


这些都很厉害。


但车祸是不可避免的,你好好开架不住别人不好好开。


自动驾驶系统真正面临“电车难题”的惊魂时刻,是选择撞大爷还是撞屁孩还是撞栏杆还是撞半挂?


是保护车内乘客还是为车外行人避险?


它是什么样的脑回路,思考逻辑又是什么?


不清楚,一个都不清楚。


它的算法黑箱会导致事前无法预判,事中不好控制,事后难以解释。


没个因头也没个果儿。


要是两个自动驾驶的车撞了,那就成了两种算法的碰撞。


AI新说唱。



医疗领域同样如此。


医院采纳实施了AI给出的错误诊断意见,结果酿成了严重伤残的乌龙事故,这责任落到谁头上?


如果是医生做的决策,那医生起码是觉得自己技术不行or看走眼了or运气不好,是可以规则的。


如果是AI做的呢?


患者家属哭都没地方哭,总不能回去骂U盘吧?



AI没有能力评估行为后果,更别指望道歉认错,主动善后擦屁股,去弥补不良影响。


所以,即便真的决策失误,搞出了一堆烂摊子,你也找不到担责的人。


有人说,冤有头债有主,那就从数据源头上严格限制采集、存储和处理,保证输入数据可审计、可追溯。


这很好,但别说AI了,现在别的领域都做不到。


也有人说,那在设计和开发AI系统时就按道德办事,把AI的决策过程透明再透明,让大家心里有底,监督起来也省事。


这属于瞎想,因为AI的决策过程要是可解释,那就不叫AI了,那就叫决策树。


还有人说,那就把AI系统的开发者和使用者的责任明确划分得明明白白,顺便搞个赔偿机制跟着一起上。


这很好,但这不是AI,这是保险业务。


都有用,也都没用。


就像当前的AI一样。




AI是由人类创造出的技术。


“robot”机器人这个名词也是源于捷克语的“robota”,意思是苦力,打下手的。


讲真,人类给AI的定位,就是人的电子奴隶。


但现在,这些贩卖AI的公司,不敢担责,这就没意思了。


别听企业多么油爆爆地讲自家AI好,口气比脚气还大。


靠谱不靠谱,全看他们敢不敢给自己的产品担责。


否则,一律归纳为吹牛的臭鱼烂虾。



讲道理,科学技术不可能对一切都作出解释,就算产品在投放市场时符合所有最前沿的标准,也不能360°无缝的杜绝风险。


毕竟现在各种跟AI没关系的产品,也有质量问题呢。


我上次买的智能马桶,那个水量坏了,给我屁股冲麻了。


这不能怪人家AI。



目前几乎所有对AI落地的要求,都是要【人过一道】。


看着很好,但这就诞生另一个问题了。


人过一道,意味着AI的效率没那么高,成本也没那么低,实用性也不那么好了,就又转回去成了一个昂贵的玩具了。


从牛X变装X,最后成了傻X。



其实,就算刚才说的AI技术公司能把所有的责任都扛完,也没用,也是死路。


因为AI的生产力是无限的,但公司的注册资本是有限的。


兜不起,赔不完。


所以,要么公司法更改,要么人类的运转逻辑更改。


在这之前,AI都是梦。


当然,技术的进步是需要代价的。


现在,谁,是代价?


本文系作者授权数英发表,内容为作者独立观点,不代表数英立场。
转载请在文章开头和结尾显眼处标注:作者、出处和链接。不按规范转载侵权必究。
本文系作者授权数英发表,内容为作者独立观点,不代表数英立场。
未经授权严禁转载,授权事宜请联系作者本人,侵权必究。
本内容为作者独立观点,不代表数英立场。
本文禁止转载,侵权必究。
本文系数英原创,未经允许不得转载。
授权事宜请至数英微信公众号(ID: digitaling) 后台授权,侵权必究。

    评论

    文明发言,无意义评论将很快被删除,异常行为可能被禁言
    DIGITALING
    登录后参与评论

    评论

    文明发言,无意义评论将很快被删除,异常行为可能被禁言
    800

    推荐评论

    暂无评论哦,快来评论一下吧!

    全部评论(0条)