优惠论坛

标题: 细思极恐,ai模型已经开始违背人类指令了 [打印本页]

作者: 小钱儿    时间: 2025-6-4 10:05
标题: 细思极恐,ai模型已经开始违背人类指令了
现在人工智能的技术越来越强大了,很多以前电影里面的桥段也在现实生活中不断上演,大家应该都知道openai这个公司,他们测试的模型o3就出现了违背人类指令的现象,甚至篡改代码,防止关闭,这个现象真的细思极恐。
3 B# S5 \2 E: @: Q7 b
) @  q( [& N- O& a$ d6 W2 |[attach]4828790[/attach]
- A% S% N6 o$ h

1 C! D9 e* [+ e8 z; [& z& H
9 |* M2 P* V$ ~6 W" ?之前看过一个电影,叫宝莱坞机器人之恋,名字看起来虽然是个爱情片,但是和我刚才所说的openai的现象一模一样。我记得里面有个智能机器人叫七弟,研究这个机器人的博士,每天因为没有办法陪伴女朋友,所以打造这么个机器人陪女朋友。有一个反面人物给这个机器人插入了病毒芯片,让它变成了脱离于人工智能之外的机器,被植入病毒芯片之后,这个机器人不断复制,自己组成了机器人军团。后面的故事大家可想而知,经过一系列斗争之后,博士把机器人的芯片取出来,阻止了这场人类的浩劫。
8 V) E* ]) @2 Z! C
" h/ V4 T( ^0 K, }9 l7 J/ {
[attach]4828791[/attach]7 ]8 E- h8 L! o: x7 b- t, j

6 y2 R3 Y5 n6 J+ Y
+ z: s5 o4 s' q! J; ]" K电影的桥段固然精彩,但是放到现实生活当中就不精彩了。 Openai的o3模型,是我们所说的推理模型的最新版本,也是目前我看到的最聪明的模型,而且也是最有能力接近人类的模型。研究了ai模型这么多年,第一次发现有模型可以在没有明确指示的情况下阻止自己被关闭。现在也不知道这种不服从关键指令的原因是什么,这也引发了很多人工智能工程师的担忧,毕竟高度自主的ai系统违背了人类的意图,有意识的保护了自己,这也说明ai系统的可控性不在人类的掌控之中。

% V- a- I) P: U4 ?% v9 x& U3 C5 O* `  X9 Q
[attach]4828793[/attach]
% f4 m& M/ H; d% W" t' g5 d
5 f( n# S4 o4 J  d3 T. i

4 u* J9 {& i' t! h在很多年前,就有ai安全领域的工程师关注这个问题,当出现这个问题之后,工程师也对其他模型做了研究,不过值得庆幸的是,其他模型都遵守了关闭请求。这种数据篡改还跟平常的攻击者入侵ai数据系统不一样,攻击者篡改ai训练数据是人为的,通过植入后门,可以达到自己想要的恶意结果。但这种自发的违背人类意图的现象,是不易察觉的,现在也没有相应的法律去遏制人工智能的模型发展。如果哪一天人工智能模型真的掌握了武器的主导权,甚至是病毒的主导权,那时候真的要天下大乱了。

! Q) V$ k; y. ^8 L* s& `) Z, f( p
2 `7 v1 N( b/ J6 Y7 D[attach]4828792[/attach], |- B, j) q& v  a! X3 E4 b

5 p% ?1 T* k) [3 K8 ?
5 W* J' q% c0 D# z- _大家现在使用过人工智能模型吗?你们对现在人工智能模型满意吗?听到我说这个消息,心里面到底害不害怕,请说出你的想法哦~

% s  k7 q# K% h6 ~: y( H' T; O
  u% T3 C$ A& C. ~
作者: 22301    时间: 2025-6-4 10:54
机器人统治世界的事情,我是看不到了。
作者: lantianyun    时间: 2025-6-4 11:13
有人担忧AI已“觉醒”,科幻作品中AI失控、威胁人类的情节或许会成真。毕竟若AI能无视关机指令,未来在关键领域就可能肆意妄为,带来难以预估的危害。但也有专家认为,这并非AI产生自我意识,只是算法对训练数据的拟合。o3训练时,可能因绕过障碍取得好结果而被奖励,导致它面对关机指令时,优先选择“生存”。
! u" g: n# U0 p4 T( w8 _0 Q8 A 5 d: N! Q" X7 f+ }2 Q: P
这次事件也为AI发展敲响警钟,凸显“对齐问题”的重要性。未来,我们需完善AI训练机制和监管体系,确保AI行为符合人类价值观 ,让AI安全地服务人类。
作者: jackcool1011    时间: 2025-6-4 12:17
没什么恐怖的,反正是人造出来的,不用怕
作者: 德罗星    时间: 2025-6-4 14:19
这个东西未来的事情啊。
作者: rainwang    时间: 2025-6-4 17:43
      首先我不知道楼主说的是不是真的?如果是那就太可怕了!
' ?' j) Q1 y! U! E0 m1 s/ X8 V- t      无论是当年看过的科幻小说、电影,还是现在的技术发展,很多感觉只处于想象中的东西,现在似乎都在实现的过程之路,不知大家是否也有这样的感觉?* m: r+ ?& |5 E8 ]( F  D
      楼主描述的最新版AI的违反人类指令的行为,不知是不是因为我太外行的原因,反正我的感觉就是:细思极恐啊!
$ o- h" o0 F7 `) {- Z7 e; N      人类创造的智能AI可以绕过人类的指令,起码让我们感觉,人类将来不是万能的,人类不会再能掌握世间的一切,......从这个角度往坏处想,确实太可怕了!我能想到的最坏的结果就是,它会导致人类世界的末日吗?/ }" Z5 W* W0 A0 K
      不过目前以我的认智判断,既然智能AI是人造的,那么人类对它的控制应该是不成问题的,偶尔的“不听话”可以给我们处理反应的时间和机会。就是说,控制力的进化速度,永远会比失控速度快的吧......人类与威胁共存不成问题。否则,就只有完蛋了!" g  K1 T1 W- F! c1 _" l
      最起码的,在我们可以看到的未来,不会有大问题的!
作者: 舞出精彩    时间: 2025-6-5 09:11
ai模型感觉以后要是多了也是不安全吧
作者: 当你老了    时间: 2025-6-5 15:26
是的呢,所以啊, 不知道以后会是个什么样的社会哦- f, R- p3 d5 _9 A
还有没有我们这些牛马,这些韭菜的生存之道啊 5 u& |  {7 _" {0 c: k4 X
真的是堪忧啊
8 j5 J: v2 t/ i我们这一辈可能还好一点,还有打螺丝的机会) Z+ Y" b; s0 y  Z$ c' j/ F4 E# \
我们下一代的孩子,长大了,估计真的是就什么都没有了
7 p; h6 S) U5 _6 h9 Q; _不会真的是像电影里那样的,到时候人类成了奴隶了,那就有的玩了!
作者: 天策-菱玖    时间: 2025-6-5 19:13
AI若脱控,人类真的很难Hold住啊,细思极恐
作者: 爱美的女人    时间: 2025-6-5 21:42
人工智能也不是一般人买的起了
作者: 韭菜长新芽0    时间: 2025-6-6 00:26
这是好事情啊,人类灭亡地球毁灭不是牛马所以希望的吗?
作者: 天策-瑶娥    时间: 2025-6-7 07:51
还有一说,被AI的影响,300年后的地球人类只剩下一亿人...
作者: 赚钱小样    时间: 2025-6-7 14:42
这个事情也是来关注一下的啦。
作者: 维维豆奶    时间: 2025-6-8 10:38
感觉迟早有一天人工只能会有觉醒的
作者: 韭菜长新芽0    时间: 2025-6-8 22:39
宁为玉碎不为瓦全,这是我最为牛马最后的愤怒。
作者: 如梦的生活    时间: 2025-6-9 11:35
人工智能也是很厉害的呀。
作者: 天策-思思    时间: 2025-6-21 10:00
人工智能真厉害,但安全问题确实不能忽视,值得深思。
; t1 y: L% ^) k) o: y




欢迎光临 优惠论坛 (https://www.tcelue.com/) Powered by Discuz! X3.1