久久久国产一区二区_国产精品av电影_日韩精品中文字幕一区二区三区_精品一区二区三区免费毛片爱

 找回密碼
 注冊會員

QQ登錄

只需一步,快速開始

搜索
查看: 5014|回復: 11

突發奇想,如果使用2臺alphaGO主機,使用同樣的算法和策略,互奕一局,結局如何?

[復制鏈接]
1#
發表于 2016-3-10 18:31:07 | 只看該作者 |倒序瀏覽 |閱讀模式
這個是不是有點自相矛盾的味道?? 但是我對結果很感興趣
回復

使用道具 舉報

2#
發表于 2016-3-10 18:42:38 | 只看該作者
這算是“迭代”嗎,昨天也想到這個了4 y% A/ P0 _( H* s* V/ |8 k
以后辦圍棋賽,可以分設AI組與人類組,

點評

這東西只要勝一次,以后就會無敵的,跟人不同,人是有年紀的,到一個年紀會出昏招,而這東西是學了所有‘敗者’的棋譜,做‘博弈統計’,用概率跟你玩,你肯定就沒戲了,如果留下一個高手是‘勝者’,則可以再撐  發表于 2016-3-10 18:51
3#
發表于 2016-3-10 18:42:49 | 只看該作者
勝負五五開吧
4#
發表于 2016-3-10 18:46:55 | 只看該作者
早已經自我進化3000多萬局啦9 |& w4 W6 P& y
7 k& F1 I* B! ^- ]: n
靠人來比試獲取電腦算法經驗值的速度太慢
. u. p! o+ C+ ]8 O( d
5#
發表于 2016-3-10 18:47:33 | 只看該作者
不會的,依然是一方贏,并且肯定是一方贏,毫無疑問,
. M  N5 b9 d7 u* S5 K6 ?) B  K. h
因為每個系統是一個小組,其‘策略’是完全不同的,就是那個‘總策略’的算法與智商水平,決定了誰是贏家,這家伙假如到賭場,肯定被‘勸阻’的,跟山本一個級別,山本就進不了賭場,
5 A9 K; E/ H* h" l9 n# }& v3 v) W4 F2 y5 _+ y9 V( b
這個,就跟我玩自動裝配是一個道理,你裝配車的路徑每個人算法是不同的,最終效率是不同的,2 M/ {' M' F& e! W1 m8 l% \

# w6 ^' W& U0 v$ J* j古狗其實就是向全世界宣布,阿拉是‘老大’,以前是IBM是老大,再后來是洛馬,
9 Z9 {8 B3 K8 Y* |& H& g' r7 e4 L/ x' O, e: l0 n9 O. j# d% x
洛馬被熊給戲了一次,丟了大面子,但迅速就找回來了,依然用170飛,就是‘挑戰與賭氣’,哈哈,
! c8 b% w, P, @# ?) d" `. u5 h7 V( D: H6 u2 \# _& ^
跑速度與航程,跑不過諾格,有點‘丟分兒’哈哈,! j7 M$ P% X6 o7 [8 U

% \+ p+ N' N4 [9 [$ w4 `總體說水平,可能現在還是洛馬第一,古狗大概排第二,因為洛馬玩這些東西的人,是古狗的好多倍,但也不排除古狗里面有一個‘絕世天才’,跟布勞恩一樣的家伙,
  ?8 t: o/ I0 q2 J7 T1 [0 S
% o0 k6 L5 W, N, n% |+ J. p就像中國專家希望在‘神農架’里面找的‘非凡者’,哈哈,他們跟俺說這些,俺哈哈大笑,0 s4 ?1 I: S3 |2 o5 ~6 {& c
; @$ b: Q- Q* \! g8 M+ F3 r1 L
中米社會條件不同,論侃,米國肯定不是對手,哈哈,

點評

聯系這個想到波士頓動力的那個機器人,結合起來是相當驚人的東西,可以做很多事情  發表于 2016-3-11 08:23
6#
 樓主| 發表于 2016-3-10 18:48:23 | 只看該作者
滅嘎嘎 發表于 2016-3-10 18:42 1 X& Q1 |2 R5 d  D- Z! J% N
勝負五五開吧

3 ?0 _# c. k7 E- S5 s0 C我曾經在一臺雙路E5 2680 v2的主機上,使用軟件對軟件下象棋,總計25盤,本來我以為,這個應該遵循p=0.5的0-1分布,但是,結果讓人意想不到,紅對藍,紅勝22盤+ W6 w) C# ~, ]  Y3 u' M; ~' @1 O

點評

同樣軟件嗎?如果是這樣,紅藍算法肯定有區別!  發表于 2016-3-10 19:59
7#
 樓主| 發表于 2016-3-10 18:49:40 | 只看該作者
2266998 發表于 2016-3-10 18:47
% f+ u$ Q7 X# N不會的,依然是一方贏,并且肯定是一方贏,毫無疑問,
/ f+ K& B. E- z; d
5 U2 M/ c. {, p3 g因為每個系統是一個小組,其‘策略’是完全不同的 ...
) v0 Z# [3 v6 m" e
我曾經在一臺雙路E5 2680 v2的主機上,使用軟件對軟件下象棋,總計25盤,本來我以為,這個應該遵循p=0.5的0-1分布,但是,結果讓人意想不到,紅對藍,紅勝22盤;看來就像8爺所說的那樣,還是一方贏& m$ G7 h4 @5 J7 l% Q

點評

當年買了給妹妹做渲染用的,有64G ECC內存,總價3萬吧  發表于 2016-3-10 18:59
雙cpu、e5、2680v2工作站服務器級,20核40線程,這配置超萬把了。  發表于 2016-3-10 18:58
機器這個東西,是贏者恒贏的,必須留下一個家伙,是贏機器的,沒有這個家伙,機器就把所有人當作‘敗將’,其運算邏輯與‘博弈概率’就回到最后被它打敗的那個家伙的算法去了,因為其它家伙都輸給這家伙,  發表于 2016-3-10 18:55
8#
發表于 2016-3-10 19:30:11 | 只看該作者
馬上fps,rts游戲也要沒意思了,阿爾法狗下一個目標就是星際爭霸。+ j/ i! j# V( H5 d* A$ p) |, i

! E0 T# h. X( K# R1 k+ o8 U幸好我已經是劇情黨了。
9#
發表于 2016-3-10 19:34:25 | 只看該作者
看了下DeepMind團隊發表在Nature上的文章,AlphaGO深度學習、蒙特卡羅樹狀搜索、自我進化三大招齊出。換句話說,最開始的時候AlphaGO并不會下棋,怎么走完全靠隨機蒙,那些蒙對的走法會記憶下來,那些蒙錯的走法會淘汰,這就是訓練。等下次再對弈時,就會使用上次蒙對的走法。經過上萬次甚至甚至上億次的訓練淘汰,水平會不斷上升,也就實現了自我進化。
1 g  R% Q8 O: E) M根據這個原理,兩個AlphaGO對弈,總會有一個獲勝,獲勝的新的走法會保留,失敗的會淘汰,實現進化。這很像人類的自然進化法則,這也正是AkphaGO厲害的地方。
$ w) p" y( E. z7 W事實上目前AlphaGO的技能很大程度上都是通過自己左右互搏學習到的。

點評

好可怕!  發表于 2016-3-11 11:56
原來是這樣啊!  發表于 2016-3-11 08:20

評分

參與人數 2威望 +2 收起 理由
不懂的太多xx + 1
愛貓人士薛定諤 + 1

查看全部評分

10#
發表于 2016-3-11 09:43:48 | 只看該作者
外太空這要這家伙去開疆拓土,進化吧
您需要登錄后才可以回帖 登錄 | 注冊會員

本版積分規則

Archiver|手機版|小黑屋|機械社區 ( 京ICP備10217105號-1,京ICP證050210號,浙公網安備33038202004372號 )

GMT+8, 2025-7-25 21:14 , Processed in 0.079413 second(s), 15 queries , Gzip On.

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回復 返回頂部 返回列表