优惠论坛

标题: 细思极恐,ai模型已经开始违背人类指令了 [打印本页]

作者: 小钱儿    时间: 2025-6-4 10:05
标题: 细思极恐,ai模型已经开始违背人类指令了
现在人工智能的技术越来越强大了,很多以前电影里面的桥段也在现实生活中不断上演,大家应该都知道openai这个公司,他们测试的模型o3就出现了违背人类指令的现象,甚至篡改代码,防止关闭,这个现象真的细思极恐。
6 H. [/ h4 f1 s+ [  W8 z  l% R
[attach]4828790[/attach]: \, C4 e6 I3 ], ~

9 }% b! \6 C' n4 ?% A3 h5 m& q$ z5 ^: I9 [
之前看过一个电影,叫宝莱坞机器人之恋,名字看起来虽然是个爱情片,但是和我刚才所说的openai的现象一模一样。我记得里面有个智能机器人叫七弟,研究这个机器人的博士,每天因为没有办法陪伴女朋友,所以打造这么个机器人陪女朋友。有一个反面人物给这个机器人插入了病毒芯片,让它变成了脱离于人工智能之外的机器,被植入病毒芯片之后,这个机器人不断复制,自己组成了机器人军团。后面的故事大家可想而知,经过一系列斗争之后,博士把机器人的芯片取出来,阻止了这场人类的浩劫。

2 O4 B' }5 p1 [& D
/ h# i( T0 q& I2 o1 R2 E& H[attach]4828791[/attach]
- H" u  M: h# N8 n

" J7 `  @$ V* v" r/ W) Y, y' P6 q- T* b- b5 R: m. F
电影的桥段固然精彩,但是放到现实生活当中就不精彩了。 Openai的o3模型,是我们所说的推理模型的最新版本,也是目前我看到的最聪明的模型,而且也是最有能力接近人类的模型。研究了ai模型这么多年,第一次发现有模型可以在没有明确指示的情况下阻止自己被关闭。现在也不知道这种不服从关键指令的原因是什么,这也引发了很多人工智能工程师的担忧,毕竟高度自主的ai系统违背了人类的意图,有意识的保护了自己,这也说明ai系统的可控性不在人类的掌控之中。
3 [7 \; A. ~, \) e+ C. L  e; f

! N' \, M$ {- H( F: ]( d' G0 g[attach]4828793[/attach]  `( o5 A5 k, s+ v7 a6 W
$ E3 {8 \2 s1 I& _( ^9 |

3 B! v3 O1 Q& |% x8 r在很多年前,就有ai安全领域的工程师关注这个问题,当出现这个问题之后,工程师也对其他模型做了研究,不过值得庆幸的是,其他模型都遵守了关闭请求。这种数据篡改还跟平常的攻击者入侵ai数据系统不一样,攻击者篡改ai训练数据是人为的,通过植入后门,可以达到自己想要的恶意结果。但这种自发的违背人类意图的现象,是不易察觉的,现在也没有相应的法律去遏制人工智能的模型发展。如果哪一天人工智能模型真的掌握了武器的主导权,甚至是病毒的主导权,那时候真的要天下大乱了。

4 S3 H9 `  X7 Y2 _
( v9 Y# {- A- T! ~6 H3 E! k[attach]4828792[/attach], y" g1 @, k* v. ~+ s

" }8 L8 m" b& L1 e( O0 h8 a+ r
6 j, `& l, P) p9 m3 R& O7 `: R大家现在使用过人工智能模型吗?你们对现在人工智能模型满意吗?听到我说这个消息,心里面到底害不害怕,请说出你的想法哦~
# ^/ x" u: X- y. O# Y# b$ W
  A, U1 [) c* X6 b5 T

作者: 22301    时间: 2025-6-4 10:54
机器人统治世界的事情,我是看不到了。
作者: lantianyun    时间: 2025-6-4 11:13
有人担忧AI已“觉醒”,科幻作品中AI失控、威胁人类的情节或许会成真。毕竟若AI能无视关机指令,未来在关键领域就可能肆意妄为,带来难以预估的危害。但也有专家认为,这并非AI产生自我意识,只是算法对训练数据的拟合。o3训练时,可能因绕过障碍取得好结果而被奖励,导致它面对关机指令时,优先选择“生存”。9 U% ~/ ?" x+ f* C/ y" q6 }

/ d3 m. m1 j5 g. W这次事件也为AI发展敲响警钟,凸显“对齐问题”的重要性。未来,我们需完善AI训练机制和监管体系,确保AI行为符合人类价值观 ,让AI安全地服务人类。
作者: jackcool1011    时间: 2025-6-4 12:17
没什么恐怖的,反正是人造出来的,不用怕
作者: 德罗星    时间: 2025-6-4 14:19
这个东西未来的事情啊。
作者: rainwang    时间: 2025-6-4 17:43
      首先我不知道楼主说的是不是真的?如果是那就太可怕了!
# g! m7 F" ~% L' c& m! I8 L) x9 Q      无论是当年看过的科幻小说、电影,还是现在的技术发展,很多感觉只处于想象中的东西,现在似乎都在实现的过程之路,不知大家是否也有这样的感觉?& D5 ?4 c# @" A
      楼主描述的最新版AI的违反人类指令的行为,不知是不是因为我太外行的原因,反正我的感觉就是:细思极恐啊!
8 b( C+ d2 {, @3 V3 T- n3 K: ]5 s      人类创造的智能AI可以绕过人类的指令,起码让我们感觉,人类将来不是万能的,人类不会再能掌握世间的一切,......从这个角度往坏处想,确实太可怕了!我能想到的最坏的结果就是,它会导致人类世界的末日吗?) a0 v% q8 V% C( a' j. K1 U* M
      不过目前以我的认智判断,既然智能AI是人造的,那么人类对它的控制应该是不成问题的,偶尔的“不听话”可以给我们处理反应的时间和机会。就是说,控制力的进化速度,永远会比失控速度快的吧......人类与威胁共存不成问题。否则,就只有完蛋了!& P2 w9 y. j7 m' c4 i; T7 U
      最起码的,在我们可以看到的未来,不会有大问题的!
作者: 舞出精彩    时间: 2025-6-5 09:11
ai模型感觉以后要是多了也是不安全吧
作者: 当你老了    时间: 2025-6-5 15:26
是的呢,所以啊, 不知道以后会是个什么样的社会哦' R' u2 R( V4 H( G$ O/ r/ D0 q
还有没有我们这些牛马,这些韭菜的生存之道啊 ' t% A7 t7 f. X! _5 P2 z. @
真的是堪忧啊
1 ~. {# ]1 q- e, e) K我们这一辈可能还好一点,还有打螺丝的机会* C8 h' M# x) c5 A" C
我们下一代的孩子,长大了,估计真的是就什么都没有了
4 c) T. c" a: b& [) [不会真的是像电影里那样的,到时候人类成了奴隶了,那就有的玩了!
作者: 天策-菱玖    时间: 2025-6-5 19:13
AI若脱控,人类真的很难Hold住啊,细思极恐
作者: 爱美的女人    时间: 2025-6-5 21:42
人工智能也不是一般人买的起了
作者: 韭菜长新芽0    时间: 2025-6-6 00:26
这是好事情啊,人类灭亡地球毁灭不是牛马所以希望的吗?
作者: 天策-瑶娥    时间: 2025-6-7 07:51
还有一说,被AI的影响,300年后的地球人类只剩下一亿人...
作者: 赚钱小样    时间: 2025-6-7 14:42
这个事情也是来关注一下的啦。
作者: 维维豆奶    时间: 2025-6-8 10:38
感觉迟早有一天人工只能会有觉醒的
作者: 韭菜长新芽0    时间: 2025-6-8 22:39
宁为玉碎不为瓦全,这是我最为牛马最后的愤怒。
作者: 如梦的生活    时间: 2025-6-9 11:35
人工智能也是很厉害的呀。
作者: 天策-思思    时间: 2025-6-21 10:00
人工智能真厉害,但安全问题确实不能忽视,值得深思。
# V& ~* Y- z9 I- s




欢迎光临 优惠论坛 (http://www.tcelue.com/) Powered by Discuz! X3.1