久久久国产一区二区_国产精品av电影_日韩精品中文字幕一区二区三区_精品一区二区三区免费毛片爱

 找回密碼
 注冊會員

QQ登錄

只需一步,快速開始

搜索
查看: 5013|回復: 11

突發(fā)奇想,如果使用2臺alphaGO主機,使用同樣的算法和策略,互奕一局,結局如何?

[復制鏈接]
1#
發(fā)表于 2016-3-10 18:31:07 | 只看該作者 |倒序瀏覽 |閱讀模式
這個是不是有點自相矛盾的味道?? 但是我對結果很感興趣
回復

使用道具 舉報

2#
發(fā)表于 2016-3-10 18:42:38 | 只看該作者
這算是“迭代”嗎,昨天也想到這個了
0 P! G  i8 S% c. r- r# ~以后辦圍棋賽,可以分設AI組與人類組,

點評

這東西只要勝一次,以后就會無敵的,跟人不同,人是有年紀的,到一個年紀會出昏招,而這東西是學了所有‘敗者’的棋譜,做‘博弈統(tǒng)計’,用概率跟你玩,你肯定就沒戲了,如果留下一個高手是‘勝者’,則可以再撐  發(fā)表于 2016-3-10 18:51
3#
發(fā)表于 2016-3-10 18:42:49 | 只看該作者
勝負五五開吧
4#
發(fā)表于 2016-3-10 18:46:55 | 只看該作者
早已經(jīng)自我進化3000多萬局啦
, D; |, O+ z" D5 j0 X% \3 ?; k7 I$ h7 \% {# }5 M  L$ b5 y
靠人來比試獲取電腦算法經(jīng)驗值的速度太慢
$ e! s" E# K4 p
5#
發(fā)表于 2016-3-10 18:47:33 | 只看該作者
不會的,依然是一方贏,并且肯定是一方贏,毫無疑問,
* u4 Z: }# ^, l/ g) ?
5 c6 E0 m7 C3 }  e因為每個系統(tǒng)是一個小組,其‘策略’是完全不同的,就是那個‘總策略’的算法與智商水平,決定了誰是贏家,這家伙假如到賭場,肯定被‘勸阻’的,跟山本一個級別,山本就進不了賭場,5 ^; V; L/ B& Y/ W; j" \7 Z

2 p' W- x1 t9 `& V( [* S這個,就跟我玩自動裝配是一個道理,你裝配車的路徑每個人算法是不同的,最終效率是不同的,
8 A$ ~: e6 _9 t% G
% V# z( P+ s/ {( N( h古狗其實就是向全世界宣布,阿拉是‘老大’,以前是IBM是老大,再后來是洛馬,7 Z! N% h- w* f6 i

+ A% x$ ?3 }7 a5 {洛馬被熊給戲了一次,丟了大面子,但迅速就找回來了,依然用170飛,就是‘挑戰(zhàn)與賭氣’,哈哈,9 v5 j0 ]8 S$ ?3 @" E& e. x0 }: y/ C; s

9 I6 h+ i! n- x5 s( d' e跑速度與航程,跑不過諾格,有點‘丟分兒’哈哈,4 k( R* {& s4 \
5 q( z0 i- A& l
總體說水平,可能現(xiàn)在還是洛馬第一,古狗大概排第二,因為洛馬玩這些東西的人,是古狗的好多倍,但也不排除古狗里面有一個‘絕世天才’,跟布勞恩一樣的家伙,
. |  C! y4 G) M0 ?2 L" i! g
  b0 ]2 \$ r% K+ S# _' Q就像中國專家希望在‘神農(nóng)架’里面找的‘非凡者’,哈哈,他們跟俺說這些,俺哈哈大笑,
9 y& m! B5 M# v* G, G' @
9 N/ b$ P0 c- X: q  U5 m中米社會條件不同,論侃,米國肯定不是對手,哈哈,

點評

聯(lián)系這個想到波士頓動力的那個機器人,結合起來是相當驚人的東西,可以做很多事情  發(fā)表于 2016-3-11 08:23
6#
 樓主| 發(fā)表于 2016-3-10 18:48:23 | 只看該作者
滅嘎嘎 發(fā)表于 2016-3-10 18:42
# i5 z+ H8 _$ B勝負五五開吧

5 g- S1 m! [7 P6 W) c& J我曾經(jīng)在一臺雙路E5 2680 v2的主機上,使用軟件對軟件下象棋,總計25盤,本來我以為,這個應該遵循p=0.5的0-1分布,但是,結果讓人意想不到,紅對藍,紅勝22盤4 d8 F/ ]* r+ B+ x

點評

同樣軟件嗎?如果是這樣,紅藍算法肯定有區(qū)別!  發(fā)表于 2016-3-10 19:59
7#
 樓主| 發(fā)表于 2016-3-10 18:49:40 | 只看該作者
2266998 發(fā)表于 2016-3-10 18:47 , n' e( s$ l$ ~4 @2 x
不會的,依然是一方贏,并且肯定是一方贏,毫無疑問," R3 i+ L$ l' U* e( s

2 j% @. N0 z$ ~$ Y5 t因為每個系統(tǒng)是一個小組,其‘策略’是完全不同的 ...

% n, |4 x% d- N( B) t我曾經(jīng)在一臺雙路E5 2680 v2的主機上,使用軟件對軟件下象棋,總計25盤,本來我以為,這個應該遵循p=0.5的0-1分布,但是,結果讓人意想不到,紅對藍,紅勝22盤;看來就像8爺所說的那樣,還是一方贏
1 b8 f$ h% k5 A( s* B

點評

當年買了給妹妹做渲染用的,有64G ECC內(nèi)存,總價3萬吧  發(fā)表于 2016-3-10 18:59
雙cpu、e5、2680v2工作站服務器級,20核40線程,這配置超萬把了。  發(fā)表于 2016-3-10 18:58
機器這個東西,是贏者恒贏的,必須留下一個家伙,是贏機器的,沒有這個家伙,機器就把所有人當作‘敗將’,其運算邏輯與‘博弈概率’就回到最后被它打敗的那個家伙的算法去了,因為其它家伙都輸給這家伙,  發(fā)表于 2016-3-10 18:55
8#
發(fā)表于 2016-3-10 19:30:11 | 只看該作者
馬上fps,rts游戲也要沒意思了,阿爾法狗下一個目標就是星際爭霸。0 [+ j1 [: f9 M8 N
. b+ E; i$ b; J# t! Z
幸好我已經(jīng)是劇情黨了。
9#
發(fā)表于 2016-3-10 19:34:25 | 只看該作者
看了下DeepMind團隊發(fā)表在Nature上的文章,AlphaGO深度學習、蒙特卡羅樹狀搜索、自我進化三大招齊出。換句話說,最開始的時候AlphaGO并不會下棋,怎么走完全靠隨機蒙,那些蒙對的走法會記憶下來,那些蒙錯的走法會淘汰,這就是訓練。等下次再對弈時,就會使用上次蒙對的走法。經(jīng)過上萬次甚至甚至上億次的訓練淘汰,水平會不斷上升,也就實現(xiàn)了自我進化。
: P- Y' `, a: c. h' }4 _+ X根據(jù)這個原理,兩個AlphaGO對弈,總會有一個獲勝,獲勝的新的走法會保留,失敗的會淘汰,實現(xiàn)進化。這很像人類的自然進化法則,這也正是AkphaGO厲害的地方。0 D0 n+ N; t) d  l7 C
事實上目前AlphaGO的技能很大程度上都是通過自己左右互搏學習到的。

點評

好可怕!  發(fā)表于 2016-3-11 11:56
原來是這樣啊!  發(fā)表于 2016-3-11 08:20

評分

參與人數(shù) 2威望 +2 收起 理由
不懂的太多xx + 1
愛貓人士薛定諤 + 1

查看全部評分

10#
發(fā)表于 2016-3-11 09:43:48 | 只看該作者
外太空這要這家伙去開疆拓土,進化吧
您需要登錄后才可以回帖 登錄 | 注冊會員

本版積分規(guī)則

Archiver|手機版|小黑屋|機械社區(qū) ( 京ICP備10217105號-1,京ICP證050210號,浙公網(wǎng)安備33038202004372號 )

GMT+8, 2025-7-24 08:14 , Processed in 0.112817 second(s), 22 queries , Gzip On.

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回復 返回頂部 返回列表