久久久国产一区二区_国产精品av电影_日韩精品中文字幕一区二区三区_精品一区二区三区免费毛片爱

機械社區

標題: 突發奇想,如果使用2臺alphaGO主機,使用同樣的算法和策略,互奕一局,結局如何? [打印本頁]

作者: crazypeanut    時間: 2016-3-10 18:31
標題: 突發奇想,如果使用2臺alphaGO主機,使用同樣的算法和策略,互奕一局,結局如何?
這個是不是有點自相矛盾的味道?? 但是我對結果很感興趣
作者: 愛貓人士薛定諤    時間: 2016-3-10 18:42
這算是“迭代”嗎,昨天也想到這個了
6 ]& T1 n- P6 O( p以后辦圍棋賽,可以分設AI組與人類組,
作者: 滅嘎嘎    時間: 2016-3-10 18:42
勝負五五開吧
作者: yestwp    時間: 2016-3-10 18:46
早已經自我進化3000多萬局啦5 p% S1 a, H: j5 u9 g/ p( O

& h: j1 D" N2 ?靠人來比試獲取電腦算法經驗值的速度太慢$ I+ H( p/ F7 v$ k4 y$ j) W) ~2 l, Z

作者: 2266998    時間: 2016-3-10 18:47
不會的,依然是一方贏,并且肯定是一方贏,毫無疑問,2 H3 P* j. j. Y; B+ I+ j( A
0 O3 N/ {. y" {$ i% u
因為每個系統是一個小組,其‘策略’是完全不同的,就是那個‘總策略’的算法與智商水平,決定了誰是贏家,這家伙假如到賭場,肯定被‘勸阻’的,跟山本一個級別,山本就進不了賭場,* q' c# R7 K3 h3 F0 e; T* X; m( m

6 }4 R; |8 d* u8 v9 I# C# p. C* H這個,就跟我玩自動裝配是一個道理,你裝配車的路徑每個人算法是不同的,最終效率是不同的,
8 s, O' ?5 i  v) z& A5 C# A& u; b
古狗其實就是向全世界宣布,阿拉是‘老大’,以前是IBM是老大,再后來是洛馬,
; M* c' x+ m3 k* l% T* i9 ^
0 I0 p2 J+ g0 i洛馬被熊給戲了一次,丟了大面子,但迅速就找回來了,依然用170飛,就是‘挑戰與賭氣’,哈哈,
' ^' c  B8 z# P$ L  ?, X. S, K/ ^) e/ \7 o( C% C2 W3 b
跑速度與航程,跑不過諾格,有點‘丟分兒’哈哈,
' V# Y( [" q5 Q& g  m& Z' A* d
總體說水平,可能現在還是洛馬第一,古狗大概排第二,因為洛馬玩這些東西的人,是古狗的好多倍,但也不排除古狗里面有一個‘絕世天才’,跟布勞恩一樣的家伙,
+ ^5 n5 {  _/ K6 x! O
4 @4 i% `2 e3 p9 ]$ H, d, [; B- F就像中國專家希望在‘神農架’里面找的‘非凡者’,哈哈,他們跟俺說這些,俺哈哈大笑,
' r4 _! D) d4 w) C4 K! D
& Z6 X" k: M9 v- R" l中米社會條件不同,論侃,米國肯定不是對手,哈哈,
作者: crazypeanut    時間: 2016-3-10 18:48
滅嘎嘎 發表于 2016-3-10 18:42
5 D+ ^" K" f- y, d' _* M* i+ v1 S勝負五五開吧

& i( _: P- J. F我曾經在一臺雙路E5 2680 v2的主機上,使用軟件對軟件下象棋,總計25盤,本來我以為,這個應該遵循p=0.5的0-1分布,但是,結果讓人意想不到,紅對藍,紅勝22盤( s: Z  z! y; M: Z

作者: crazypeanut    時間: 2016-3-10 18:49
2266998 發表于 2016-3-10 18:47
8 h& }+ W3 T* ]不會的,依然是一方贏,并且肯定是一方贏,毫無疑問,
) k* P6 D3 ?- Y5 T. v- F9 U9 a- [5 P- _- y
因為每個系統是一個小組,其‘策略’是完全不同的 ...

( g. K4 ?1 y$ T9 {我曾經在一臺雙路E5 2680 v2的主機上,使用軟件對軟件下象棋,總計25盤,本來我以為,這個應該遵循p=0.5的0-1分布,但是,結果讓人意想不到,紅對藍,紅勝22盤;看來就像8爺所說的那樣,還是一方贏
; P3 r5 L+ c, j0 t
作者: negtive    時間: 2016-3-10 19:30
馬上fps,rts游戲也要沒意思了,阿爾法狗下一個目標就是星際爭霸。! x6 M+ g7 v/ j! |  S

% j- \- c0 c1 j+ l0 F& V% b幸好我已經是劇情黨了。
作者: 劉景亞    時間: 2016-3-10 19:34
看了下DeepMind團隊發表在Nature上的文章,AlphaGO深度學習、蒙特卡羅樹狀搜索、自我進化三大招齊出。換句話說,最開始的時候AlphaGO并不會下棋,怎么走完全靠隨機蒙,那些蒙對的走法會記憶下來,那些蒙錯的走法會淘汰,這就是訓練。等下次再對弈時,就會使用上次蒙對的走法。經過上萬次甚至甚至上億次的訓練淘汰,水平會不斷上升,也就實現了自我進化。% w" h0 B; y; |* b' J: a, W$ m8 z4 I
根據這個原理,兩個AlphaGO對弈,總會有一個獲勝,獲勝的新的走法會保留,失敗的會淘汰,實現進化。這很像人類的自然進化法則,這也正是AkphaGO厲害的地方。
7 X- H. E$ E: f; r事實上目前AlphaGO的技能很大程度上都是通過自己左右互搏學習到的。
作者: icegoods    時間: 2016-3-11 09:43
外太空這要這家伙去開疆拓土,進化吧
作者: 機械huhuang    時間: 2016-3-11 21:21
結局最多19*19種
作者: 雨傾城    時間: 2016-3-12 20:10
走出地球,征服星際需要他們




歡迎光臨 機械社區 (http://www.ytsybjq.com/) Powered by Discuz! X3.5