首页 科技 军事 财经 教育 体育 房产 健康 汽车 安全 热点 人才 推选

人才

旗下栏目:

美国新发的AI监管令已经被大佬们吵到人类灭绝的程度了

发布时间:2023-11-02 来源:原创/投稿/转载 作者:admin 人气:

  像必须给 AI 生成的内容打水印、得保护相关工人的权益,别让 AI 整得一堆人失业、要想法子护住美国在 AI 的领先地位等等,都在这一纸命令中。

  这可就一石激起千层浪了,有些人立马拍手叫好,觉得早该这么干了。毕竟,你也不想看到 AI 让大伙们失去工作。

  有些人则觉得完了,这下 AI 发展的康庄大道,彻底被那些老顽固给堵死了,没救了,毁灭吧赶紧的。

  一开始还只是网友们在吵吵闹闹,但没想到,不少 AI 圈儿的大佬也各就各位,做起了“嘴强王者”,发表着自己观点。

  参与这次“肉搏战”的主要人物有三位,两位图灵奖得主,也就是深度学习之父三巨头中的二位:LeCun 和 Hinton。

  吴恩达还洋洋洒洒地写了一篇长文,先是列了一些现在网上常听到的“ AI 会让人类灭绝”、“ AI 会取代多少人的工作”等等的言论。

  然后直接竖起靶子开打,说这样的言论纯属炒作,是最可怕的,它会助长一些过于严格的规定出现,进一步“压制开源和创新”。

  还细数了因强监管导致 AI 研究缓慢甚至停滞的案例,像什么加州暂停无人驾驶汽车项目,有人搞出破坏生成式大模型的工具等等。

  吴恩达的推文呢,就像在瓦斯泄露的房间里点燃了一根火柴,本来整个 AI 圈子在这个话题上的分为都已经剑拔弩张了,这下直接炸了。。。

  炸出的第一位就是觉得 AI 早该管管的 Hinton ,他也没藏着掖着,直接正面迎战,并且还拿自己开涮。

  你吴恩达说 AI 有毁灭人类的风险很小,但我 Hinton 当初离开谷歌,可正是为了能把这些风险说出来。

  Hinton 还直接在吴恩达的帖子下反问他,如果 AI 没得到很好的监管,那未来 30年人类灭绝的概率是多少呢?我目前的答案是0.1 ,你自己心里肯定也有数。

  面对 Hinton 的接连反击,吴恩达倒是大方回应,先是撇清关系,说自己并没觉得 AI 安全得很。

  只是觉得有些观点,说太过头了,可以说在散播恐慌了。甚至,这些观点已经影响到了 AI 的发展,美国这次的监管令就是活生生的例子。

  最后吴恩达还有点阴阳地来了一句:我知道你出发点是好的,但我觉得你天天这么逼逼叨,绝对弊大于利。

  至于 30年后 AI 导致人类灭绝的问题,也立马召唤出了另一位大佬,也就是吴恩达的“同盟” LeCun 。

  导致人类灭绝的因素海了去了,比 AI 有威胁的多的是,并且 AI 倒是有可能让人类免于灭绝呢。

  有趣的是,有网友也跟着 LeCun 一起向 Hinton 倒油,挖出之前他在 2016 年预测的放射科医生 5 年内就会被 AI 取代的言论。

  这下直接把 Hinton 本人“噎”得语无伦次了起来,连忙给自己圆场,说自己在时间尺度上确实有些毛病。。。

  同时, LeCun 还直接点名道姓 Hinton 和 Bengio ,说他们现在的立场,对那些不想开源代码、开放模型的科技巨头来说,简直就是助纣为虐。

  AI 如果不行了的确没法毁灭人类,但人类没了 AI 的能力,被什么地震、陨石、核武器灭绝的可能性也会增加啊。

  他煞有介事地来了句:真正的战斗是在灭绝论者和人文主义者之间。一旦你注意到了这场战斗,就没法对此视而不见。

  大家的观点虽然针锋相对,聊得也很激烈,但基本都是有理有据的观点输出,也能让人清楚看到业界对 AI 的不同看法到底是啥情况。

  但可以肯定的是,就像网友说的“真理越辩越明”一样,在双方不断地拉扯之下,监管与 AI 发展的天平总会到达一个平衡状态。

责任编辑:admin