5ちゃんねる ★スマホ版★ ■掲示板に戻る■ 全部 1- 最新50  

■ このスレッドは過去ログ倉庫に格納されています

ニューラルネットワーク

1 :1:04/09/11 01:48:08
について教えてよ

2 :デフォルトの名無しさん:04/09/11 01:52:57
やだ

3 :デフォルトの名無しさん:04/09/11 02:12:46
やだ

4 :デフォルトの名無しさん:04/09/11 02:37:45
矢田亜希子かわいい

5 :デフォルトの名無しさん:04/09/11 02:41:24
いいよって6が言ってたよ

6 :デフォルトの名無しさん:04/09/11 02:43:30
そんなこと知らなくていいよ。


7 :デフォルトの名無しさん:04/09/11 02:50:46
なつかしいな

>>1
卒業研究か?

8 :デフォルトの名無しさん:04/09/11 09:27:24
板違い。シム板池

9 :デフォルトの名無しさん:04/09/11 11:02:50
NNの実装に関する話だったら別に構わないと思うよ

10 :デフォルトの名無しさん:04/09/11 15:12:19
ググれば本がいろいろ出てる
Cで実装したやつとか

11 :デフォルトの名無しさん:04/09/11 17:30:39
>>1
夢を見すぎだよ。
人工知能の時代はもうおしまいなんだよ

12 :デフォルトの名無しさん:04/09/11 17:45:06
ニューラルネットワーク=人工知能ではないと思うのだが。

13 :デフォルトの名無しさん:04/09/11 17:47:23
そうだが。
ニューラルネットワークを現在の2進コンピュータ
だけで実現させようとは・・・・

14 :デフォルトの名無しさん:04/09/11 17:48:27
シグモイド関数 g(x) = 1/(1-e^(-k*x)) を使って、
1層ニューラルネットワークのn次元縦ベクトル v=(v_1, ・・・, v_n)^T に対する出力f(v)は、

 f(v) = g(Σ[k=1, n]v_k*w_k)

こういうの?>>1

15 :デフォルトの名無しさん:04/09/11 17:48:49
>>11
ばっかじゃないの。
歴史は「人工知能」と言われた技術が一般に膾炙されていく繰り返しなんだけど。
ニューラルネットも使いどころを辨えればちゃんと使えるし、使われてる。


16 :デフォルトの名無しさん:04/09/11 17:51:05
>>15
辨えれば→弁えれば→わきまえれば
何かと思ったら「弁」の旧字体だった。

17 :デフォルトの名無しさん:04/09/11 17:51:28
>>11
釣れた発言は禁止な。

18 :デフォルトの名無しさん:04/09/11 17:52:55
>>14
f は一つのニューロンの出力だった。スマソ

19 :デフォルトの名無しさん:04/09/11 18:16:27
>>15
使われてはいても当初の人間が想像していた物は実現できなかっただろう。
ばっかじゃないの

20 :デフォルトの名無しさん:04/09/11 18:17:36
これは酷いバカがあらわれたな。

21 :デフォルトの名無しさん:04/09/11 18:42:03
ホムンクルスでも作ってみるかぁ…

22 :デフォルトの名無しさん:04/09/11 18:42:28
勇者募集中

23 :デフォルトの名無しさん:04/09/11 19:30:14
>>22
DQ3の世界の勇者です。アレフガルドからこの世界に来ました。

24 :デフォルトの名無しさん:04/09/11 19:36:27
DQ1の世界にお帰りください

25 :デフォルトの名無しさん:04/09/11 19:41:22
興味ないんだったらスレ立てるなヴォケ>>1

26 :デフォルトの名無しさん:04/09/11 21:01:16
>>19
アホだな。当初の人間が想像していた物って何か、わかってるの?
その期待がどうしてしぼんだか、その後どのようなブレークスルーが発見されて
次のブームが起きたか、言ってごらん。


27 :デフォルトの名無しさん:04/09/11 21:03:16
あまり構ってやるなよ。

28 : ◆HOTsoUpxjY :04/09/11 21:39:52
>>1
http://www.1101.com/morikawa/index_AI.html


29 :デフォルトの名無しさん:04/09/11 21:43:36
>>28
可愛いから買っちゃったよ。
子供向きで遊べるかな〜って思ったけど、絵本ほどの価値もなかった。

30 : ◆HOTsoUpxjY :04/09/11 21:52:35
>>14
シグモイド関数って谷底へ落ちるボールみたいに最適解を探して、
でも小さい谷に引っ掛かってローカルミニマムになっちゃうって、そこら辺の話で出てきたな

>>29
「がんばれ森川君」かな?やったことないから分からないけど…
ゲームなら、賛否が分かれるけどGPMとかEVA2とかがAIだね

31 :デフォルトの名無しさん:04/09/11 21:55:51
>>30
リンク先みた?
マッチ箱の脳っていう本だよ

32 : ◆HOTsoUpxjY :04/09/11 22:25:18
>>31
>子供向きで遊べるかな〜 っていうから…ゲームの話かなと思った
入門書で実際にプログラムするのとは別って感じじゃない

33 :デフォルトの名無しさん:04/09/11 23:20:34
>>30
完全な最適解を求めることは不可能か、計算量があまりにも大きすぎます。
関数の形が完全に分かればともかく、グラディエントしか分からない場合は
ローカルミニマムを求めるしかないです。

34 :デフォルトの名無しさん:04/09/11 23:25:43
ポストペットでつかわれてるお


35 :デフォルトの名無しさん:04/09/12 08:11:52
むりやり学習されるだけが脳じゃない

36 :デフォルトの名無しさん:04/09/13 00:13:53
>>35
ニューラルネットワークだけで人間が望むような学習を自動的にさせることは出来ません。

37 :35:04/09/13 01:01:03
出力を短時間で決定するためにBPなどを使うみたいですが
これは求める結果をあらかじめ固定しますよね
逆に結果によってどうさを切り替えるような構成って出来ないものでしょうか?
学識もない人間なので適当なことを言ってますが
人間の脳ってBPなんて機能はもってないですしね


38 :36:04/09/13 01:18:15
結果に対して動作を切り替えるとは、例えばどのような場合ですか?

入力と出力の組が分かっているとき(例えば、ある画像パターンAが「1」を意味する場合)、
画像パターンAを入力すると「1」を出力するように学習させることは出来ます。
(これは個人的な憶測ですが)おそらく、人が普段「何となくそんな感じがする」というときは
BPによって(無意識のうちに)学習されているのかも知れません。
具体的に脳の学習のメカニズムがどうなっているのかまでは(勉強不足で)分かりません。

39 :35:04/09/13 01:33:13
その場合ですと、初期状態でAが0を示すなら0がAであると
決めてしまえば学習する必要はないですし、類似のパターンについても
繰り返し入力することで0へかたよっていくような構成にしてしまう
この辺の処理も別のNNを組み合わせて自動化できると人間の脳に近い形だと思うんですが。
具体的にどうしたらいいかって聞かれても答えられませんが。。。

人間の脳は発火した細胞の結線は短いものがのびくっついてるものは
より強化される。
発火がないとじょじょに萎縮していく。
と認識してます。
間違ってたら誰か指摘して下さい。


40 :36:04/09/13 01:55:58
>その場合ですと、初期状態でAが0を示すなら0がAであると
>決めてしまえば学習する必要はないですし、類似のパターンについても
>繰り返し入力することで0へかたよっていくような構成にしてしまう
Aが0と決めると言っても、Aは実際には無数にあるので(24*24の白黒2値画像だと 2^576 通り)、
それら全ての組み合わせをあらかじめ決めておくことは現実的ではありません。
それを近似的に解決する方法の一つがNN(ニューラルネットワーク)です。
初期状態では何が何を指すのかは未知なので、新たに学習させる必要があります。
NNは、類似のパターンについても繰り返し入力することで期待する分類を行ってくれるようになる方法の一つです。
但し、常にうまくいくとは限りません。

>この辺の処理も別のNNを組み合わせて自動化できると人間の脳に近い形だと思うんですが。
>具体的にどうしたらいいかって聞かれても答えられませんが。。。
NNは、A_1, A_2, ・・・・, A_n (n=10000くらい)の入力と出力の関係を学習させて、似たようなパターンが現れたら
(良い条件のもとで)期待する出力を返すものです。一つだけパターンを与えて、それに似たものを全て
的確に答えてくれる高度なものはNNでは出来ません。
人間は、実は非常に高度な分類を日常的にしているので、それが凄いことだと気づかないのです。

>人間の脳は発火した細胞の結線は短いものがのびくっついてるものは
>より強化される。
>発火がないとじょじょに萎縮していく。
>と認識してます。
>間違ってたら誰か指摘して下さい。
そんな感じでいいと思います。
コンピュータで実現するNNの場合は、学習結果の衰退が起こらないという点で実際の脳と違いますが・・・

41 :35:04/09/13 02:31:54
現実的でないのはわかります。
今後の展望という意味で人間の脳に近づけることは非常に良い結果を
得られるんじゃないかと考えているんですが。

例えば脳は小脳と大脳があって小脳はほぼ変化しないそうです。
かってな考えですが小脳が大脳をコントロールする役割を果たしてるんじゃないかと
考えています。
前文で言ったNNで自動化するって部分がこれに相当するんじゃないかと思っています。
とりとめのない話ではありますが。。。


42 :デフォルトの名無しさん:04/09/13 09:54:50
とりあえずこれでも読んでくれ。

脳とコンピュータはどう違うか
http://www.amazon.co.jp/exec/obidos/ASIN/4062574128/

43 : ◆HOTsoUpxjY :04/09/13 18:52:17
>>33
完全な最適解を求めるのは無理だし無意味だよね
Boltzmann machine でボールに勢い(温度)を持たせて
小さい谷なら越えちゃうというのは有効だね


44 : ◆HOTsoUpxjY :04/09/13 18:56:30
ゲームの話になるけど、カルネージハートってのがあって、AIじゃないけど非常に面白かった
んで知ってる人にしか分からないけど、あのパネルをNNのノードに見立てたらどうかな
刺激が多いとパネルか、それを繋ぐラインが成長するとか…誰か作ってくんないかな

45 :デフォルトの名無しさん:04/09/14 18:01:41
>>43
入力を表すベクトルを v、内部状態を表すベクトルを w、そのときの出力ベクトルを f(v)、望みの出力を f0 とするとき、
E =|f(v, w)-f0|^2 (|x|はユークリッドノルム)

w_0 を初期の内部状態として

w_(n+1) = w_n - δ*∂E/∂w

とするのが最急降下法による学習ですが、
w と同じ次元の乱数ベクトル r を使って

w_(n+1) = w_n - δ*∂E/∂w + r_n

とするのでしょうか?

46 :デフォルトの名無しさん:04/09/15 07:48:33
Blondie24: Playing at the Edge of AI
http://www.amazon.com/exec/obidos/ASIN/1558607838

IBMのDeepBlueは人間が過去に蓄積したチェスの知識を強力なマシンで
ぶん回す力ずくの代物だったのに対し、この本では何の知識も無い
ニューラルネットがパソコン上で自身と対戦して学習するだけで
トップレベルのチェッカープレーヤに成長する過程を書いている。
どっちがAIの成果と言えるのか考えさせられる良書

47 :デフォルトの名無しさん:04/09/15 21:28:41
でもニューラルネットでできるのは、それがチェッカーだからだけどな。

パソコン上で自分自身または他のプログラムと対戦させて強くする、というのは
囲碁なんかでもあるね。



48 :デフォルトの名無しさん:04/09/15 23:13:54
ちなみに>>46のチェッカープログラムは自己学習したニューラル
ネットだけでトップレベルに達することを実証するため、定石や
結論の出ているデータをわざと使わないで作っている。
強さだけを論じるなら、数百年に渡る人間の知識再生型チェッカー
プログラムはさらに強い。

バックギャモンもニューラルネットプログラムが強いが、こちらは
知識再生型プログラムは激ヨワでお話しにならず、ニューラルネット
導入で初めてトッププレーヤの域に達した。

ニューラルネットが適するかはゲームの複雑さも影響するが、
ゲームの性格に因る所が大きい。囲碁も知識再生だけに頼ると
限界が近いタイプのゲームに思える。

49 :デフォルトの名無しさん:05/01/16 17:38:50
3層ニューラルネットワークをC言語で作成しろって課題が出たんだが、
参考になりそうなサイト無い?

50 :デフォルトの名無しさん:05/01/16 19:07:58
ニューラルネットワークなんて何層でも同じ様なコードだろ

51 :デフォルトの名無しさん:05/02/20 17:18:40
>>49
今どきの学生はそのくらいの課題をウェブに頼ろうとするのか…。


52 :デフォルトの名無しさん:05/03/01 00:02:51
Javaで階層型ニューラルネットワークのコードを書いてみたよ
興味があったら使ってみて、バグ探しとか、改良して

http://www.geocities.jp/retort_curry119/NN.htm

とりあえす、XORの入出力関係を学習するのを作ってある

53 :デフォルトの名無しさん:2005/08/10(水) 23:35:32
ニューラルタシーロはいつできるようになるんですか?

54 :なつかしい:2005/08/12(金) 01:19:42
うは、なつかしい。
ニューラルネットワークは、大学のゼミの卒論テーマだった。
いまから13年前だ。。。
そこで、文字認識をやらせるプログラムをC言語で組んだ。
いまのパソコン性能なら一瞬で終わる処理が、13時間とか
かかってたなー。
まあ、卒論発表近くで重大なバグを発見して、血の気が引いたけど。
>>49
こういうこともあるから、自分で一から作ってかないと、痛い目にあうよ。

あのころと理論変わってないのかな?3層のやつ?
理論の名称も浮かばないや。
卒業したてのころは、競馬予想をやるソフトを開発してやろうと
思ってたけど、仕事が楽しくて、そっちに気が回らなくなったよなw


55 :デフォルトの名無しさん:2005/08/15(月) 18:26:22
>>35
人間のように、反抗してワザと駄目な値を模索したりとかなら面白いと思います。
なんらかの自律的動きをしてるようにうかがえる範囲で。

56 :デフォルトの名無しさん:2005/08/26(金) 12:26:02
>30
>GPMとかEVA2とかがAIだね
殆どのゲームでAIって使ってんじゃないか?(程度の上下はあるが)
ガンパレとかはAIの程度の高さを売りにしてのかな?

57 :デフォルトの名無しさん:2005/08/26(金) 12:44:35
ニューラルネットワークに「学習」させる方法は
バックプロパゲーションとかいろいろあると思うけど
実際の脳ではシナプスの重みの調整をどんな方法でやってるの?

おせぇてエロい人


58 :デフォルトの名無しさん:2005/08/26(金) 13:36:36
>>57
興奮とか抑制とか




よくわかってないスマソ


59 :デフォルトの名無しさん:2005/08/26(金) 15:15:05
ヘッブしゅん!

60 :デフォルトの名無しさん:2005/08/26(金) 15:58:29
>>57
http://www.tmd.ac.jp/artsci/biol/textlife/synapse2.jpg
結合を司る細胞の数、だと思う。たぶん。

61 :デフォルトの名無しさん:2005/08/26(金) 16:26:36
>>60
その「細胞の数」がどういうときに調整されるのかが知りたいんだが。

どういうときにどう調整されれば「学習」できるのか。


62 :デフォルトの名無しさん:2005/08/26(金) 18:09:52
電流の通る頻度だと思う

63 :デフォルトの名無しさん:2005/08/26(金) 18:19:30
単純に電気の通る頻度なら、
少しでも電気の通りやすいところがあったら
そこに電気が通って、さらに通りやすくなって、
またそこに電気が通っての繰り返しになって
学習もなにもあったもんじゃないような希ガス。

いや、俺はニューラルネットワークは知らないんだが。


64 :デフォルトの名無しさん:2005/08/26(金) 18:27:51
>>63
筋肉と同じで、使えば使うほど強くなると思うが、消費が激しいと老化が早くなるかもな。
筋肉は入れ替えが起こるが、神経はそうもいかんし。
接続強さの上限があって、あまりに激しく使用すると、その接続部分だけ疲弊するかもな。
それが、忘れる事だったり、柔軟性だったりするかもな。

65 :デフォルトの名無しさん:2005/08/26(金) 18:50:31
>>63
通りやすくなれば通る頻度が上がるとは限らないわけで。

66 :デフォルトの名無しさん:2005/08/27(土) 01:48:18
たぶんこんなん
http://homepage1.nifty.com/kaneko/ed.htm

67 :デフォルトの名無しさん:2005/09/04(日) 09:07:12
  ∧_∧
`∧( ´∀`) age
( ⊂   ⊃
( つ ノ ノ
|(__)_)
(__)_)

68 :デフォルトの名無しさん:2005/09/04(日) 10:29:41
柔軟性が接続部分の疲弊だったら、
数学なんていらないんじゃないのか。(この世に)



69 :デフォルトの名無しさん:2005/09/04(日) 11:08:27
 |ヽ‐-へ
 i _゚Д゚」
 ゙´ノノ))))
 l ノ゚ヮ゚ノl
 ノ⊂)卯!つ
´((く/_||リ
   しソ

70 :デフォルトの名無しさん:2005/09/09(金) 05:23:53
http://www.google.co.jp/search?q=%E3%82%B0%E3%83%AA%E3%82%A2+%E3%83%8B%E3%83%A5%E3%83%BC%E3%83%AD%E3%83%B3+%E5%9B%9E%E8%B7%AF%E7%B6%B2

71 :名無しさん@そうだ選挙に行こう:2005/09/11(日) 02:53:52
>>57
樹状突起のスパイン(棘)が増えたり減ったりするのがメインらしいが
樹状突起自体も増えたり減ったり
神経細胞自体も増えたり減ったり
する ベースにあるのは蛋白質の合成過程と言われている

72 :名無しさん@そうだ選挙に行こう:2005/09/11(日) 03:35:51
レセプターのリン酸化非リン酸化とかいろいろ複雑だよねえ

73 :名無しさん@そうだ選挙に行こう:2005/09/11(日) 07:51:29
>>71
記憶って作業が、そんな物理的な構造の変化によって行われるのなら
俺の記憶力が悪いのも頷ける。

74 :名無しさん@そうだ選挙に行こう:2005/09/11(日) 11:59:16
ストレスが強いとマジで記憶の定着が悪くなる
長時間考えると覚えられる(40分程度は掛かるそうだ)

75 :名無しさん@そうだ選挙に行こう:2005/09/11(日) 19:16:31
>>74
覚えた事をすぐに取り出せないのですが・・・
毎日会っているはずの人の名前がすぐに出てこなかったり。
覚えてはいるはずなんだけど。

76 :デフォルトの名無しさん:2005/09/12(月) 06:34:05
それ、病院で診察受けた方がいいかもよ。


77 :デフォルトの名無しさん:2005/09/14(水) 21:07:45
>>71
メインの現象で追加

スパインの増減もあるけど
イオンチャネルの数(チャネルのスパイン表面への運搬、挿入による)
チャネルのイオン透過性(チャネルのリン酸化による)
神経伝達物質の放出確率(シラネ)も増減します

>神経細胞自体も増えたり減ったり
発生過程では正解
ご存知のとおり、神経細胞は成熟した脳ではほとんど増えません

78 :デフォルトの名無しさん:2005/09/14(水) 21:16:26
>>76
なんか診てもらっても凹むだけの気が。


79 :71:2005/09/16(金) 00:20:04
>>77
それどの位の時間で発生してどの位維持されるの?
うん,学習の基本になる機構としてはアポトーシスが一番重要なんじゃ
ないかと最近考えてる.今のNNにはそれが抜けてるんだよね
さらに,大脳皮質は「野」が階層構造になってるけど物理的には一枚(大き
目のハンカチ程度)なわけで,これが階層構造を構成する仕組みも重要ではないかと

80 :71:2005/09/16(金) 00:21:46
>>75
それ単なるストレス過多(まだ40歳前なら)
連書きスマソ

81 :デフォルトの名無しさん:2005/09/16(金) 01:01:24
>>80
うぐ・・・そうなのか。確かにストレス溜まっているかも。
まだ31です。客先常駐なのに名前忘れるから困る。

82 :デフォルトの名無しさん:2005/09/16(金) 14:47:57
>>81
ストレス過多もあるけど忙し過ぎるって可能性もある
前に書いたけど記憶の定着には40分〜1時間程度掛かるから
その間に注意が他の事に逝ってしまったらきちんと定着されない
次の仕事との間にある程度間をおくのが有効かも知れない(試したことはない)


83 :デフォルトの名無しさん:2005/09/16(金) 20:34:41
>>82
今まで働きづめだからな・・・俺に限らないだろうけど。
にしても教えてくれてありがと。ためになったよ。

84 :デフォルトの名無しさん:2005/09/23(金) 01:14:53
age

85 :デフォルトの名無しさん:2005/10/24(月) 00:53:24
階層型のNNの伝達関数にRBFを使った場合、
関数の中心,分散を意味する変数の修正は、
通常のBPと同様に、微分で計算するの?


86 :デフォルトの名無しさん:2005/10/26(水) 21:58:15
3層バックプロパゲーションモデルって今でも定番なのね。
17年前にSun3でC言語とSunViewで組んだ記憶が・・・。

重み値を遡及して再計算したり、大変そうw
発火、教師データ、類似度、なんていう表記も使ってたっけ。
これに企業の財務諸表データを入れ、複数の重みセットを組み合わせると
面白そうだなと思っていた時期があった。

87 :デフォルトの名無しさん:2005/11/21(月) 00:25:07
質問(?)します!
相互結合型ニューラルネットの代表的な例でいいですから、
アルゴリズムの名前を教えてください。

88 :デフォルトの名無しさん:2005/11/21(月) 01:36:51
ホップフィールドとか
その一種のボルツマンマシンとか

89 :デフォルトの名無しさん:2005/12/08(木) 00:35:56
3層バックプロパゲーションモデルの典型的なプログラムを掲載しているサイト教えてよん

90 :デフォルトの名無しさん:2005/12/22(木) 17:42:15
age

91 :デフォルトの名無しさん:2005/12/23(金) 00:42:35
SOMは相互結合型でOK?

92 :デフォルトの名無しさん:2006/03/04(土) 19:51:58
20年くらい前に、家電でニューロブームがあったが、
どんな内容だったんだろう。

93 :デフォルトの名無しさん:2006/03/05(日) 01:03:28
ファジィじゃなくて?

94 :デフォルトの名無しさん:2006/03/12(日) 02:15:51
朧な記憶では,ニューロで学習したパラメタをハードコードしただけだったかと

95 :デフォルトの名無しさん:2006/03/17(金) 13:00:21
単純なニューロでメンバーシップ関数を作って、ファジーチップに書き込んでいた
実際、最適値は、処理目的ごとに似たような結果になるので、ファジーで十分
家電の制御回路に、ニューロを組み込んで、「家電購入後、1ヶ月は、学習中です」
なんて、イヤ

96 :http://www.vector.co.jp/soft/win95/util/se072729.html:2006/03/18(土) 22:20:05
TextSS のWindowsXP(Professional)64bit対応化おながいします

もしくは64bitにネイティブ対応したテキスト置換ソフトありますか?

そういや64bitにネイティブ対応している2chブラウザてありましたっけ?


97 :デフォルトの名無しさん:2006/03/18(土) 22:23:39
マルチガッ!

98 :デフォルトの名無しさん:2006/04/23(日) 09:15:29
sage

99 :デフォルトの名無しさん:2006/05/30(火) 08:49:09
>95
あらかじめある程度学習させておけば良いんじゃないのか?

100 :デフォルトの名無しさん:2006/05/31(水) 16:15:58
自己相関学習と相互相関学習ってなにさ?

101 :デフォルトの名無しさん:2006/06/07(水) 01:23:23
C++を使った鉄棒ロボットシミュレータプログラムで
ロボットに鉄棒での倒立運動を学習させる、という研究に
ニューラルネットワークを応用したいのですが・・・

BP法など、本を読んでもよくわかりません。

そもそも、教師値というのは、正解データの事ですよね?
正解データが、欲しいデータが分かっているのにネットワークに学習させる、
というのがよく分かりません・・・。
BP法とは、どのような使い方をするのでしょうか。
具体的に知りたいです。

というか、
そもそも、この研究にニューラルネットを使うことが間違っているのでしょうか?

分かる範囲でいいので、何かアドバイスがあればお願いします。

102 :デフォルトの名無しさん:2006/06/07(水) 02:45:14
>>101
> BP法とは、どのような使い方をするのでしょうか。

文字認識で、最初にそれぞれの文字教えといて、問題の図形がどの文字か判定させるとか。
そういう、分類する問題に強いと思った。

103 :デフォルトの名無しさん:2006/06/13(火) 11:59:56
age

104 :デフォルトの名無しさん:2006/06/15(木) 23:59:22
ニューラルネットワークを利用した卒論修論でおもしろい利用法ないですかね?

105 :デフォルトの名無しさん:2006/06/16(金) 00:45:37
あっても2chにゃ書かねーわなw

106 :デフォルトの名無しさん:2006/06/16(金) 00:56:35
>>102
まさに今日その講義を聴いたところだw
他にはなにも思いつかない

>>105
そりゃそうかw
NNがどういうことに利用できるか検討がつかないんです。
C++でNNだけ作るとしたら、スキルの差もあるでしょうが
何行ぐらいでできるものなんでしょうか?

107 :デフォルトの名無しさん:2006/06/18(日) 20:20:03
あげ

108 :デフォルトの名無しさん:2006/06/18(日) 20:27:54
お前らシミュレーション板がありますよ。
面白いネタが多いんだが、過疎なんだよな。あそこ。

109 :デフォルトの名無しさん:2006/06/18(日) 21:20:03
おもしろいネタってどんなのがあるよ

110 :デフォルトの名無しさん:2006/06/18(日) 21:35:31
いけばいいじゃん。知的好奇心をあおられると思うけど。


111 :デフォルトの名無しさん:2006/06/27(火) 23:07:34
これね↓
http://science4.2ch.net/test/read.cgi/sim/1015733653/l50

112 :デフォルトの名無しさん:2006/07/12(水) 18:45:11
一つのニューロンへの入力は2通りしかだめですよね。
例えば3通りあったとして、それぞれ 0, 0.5, 1.0 としても 0.5 と 1.0 の意味が違うのに
単に大きさの違いとしか捉えきれないと言う事です。
では、一つのニューロンに3通り以上の入力を関連付けたい場合はどうすればいいのでしょうか?

ちなみに、ニューラルネットの事はあまり分かってないので、的外れのことを言っていたらすみません。

113 :デフォルトの名無しさん:2006/07/12(水) 21:07:11
複数の入力に分ける

114 :デフォルトの名無しさん:2006/09/30(土) 15:02:11
http://www.aso.ecei.tohoku.ac.jp/~myn/research/research.html
そいやこんなもの見つけたんだがちゃんとコンパイルできる?

それとも俺がヘタレなだけなんだろうか?

115 :デフォルトの名無しさん:2006/09/30(土) 15:15:19
いいえ

116 :デフォルトの名無しさん:2006/11/07(火) 15:07:22
ニューラルネットワークの仕組みが分からないなら、まずファジー技術を
学べ。それが理解できるならニューラルネットの学習法則も理解できよう。
まあ、仕組みなど理解できなくても利用できるし、理解する必要など無いし
特徴だけしっていればという考えの奴がほとんどだとおもうがw

117 :デフォルトの名無しさん:2006/11/07(火) 21:25:41
何だ藪から棒に

118 :デフォルトの名無しさん:2006/11/10(金) 15:12:17
抽象化層の意味を理解せず、ニューラルネットワークの学習機能だけを
耳コピーしたような奴ばっかりだなw。
愚か

119 :デフォルトの名無しさん:2006/11/12(日) 02:23:54
>>118
自分で考えず教科書の建前な所だけしか理解できない奴が増えているのは
事実だが、それは放置して具体的例で教えてやったらどうだ?

120 :デフォルトの名無しさん:2006/11/14(火) 02:31:07
結局、新しいアルゴリズムは何もでない。

121 :デフォルトの名無しさん:2006/11/14(火) 22:37:25
はい?

122 :デフォルトの名無しさん:2006/11/15(水) 03:10:13
ニューラルネットワークとは信者が作った幻想にしかすぎない。
これは事実であって、どんなに力説しようが、絵に書いた餅。
研究対象として企業から支援してもらう為、あらゆる分野で
大騒ぎしている香具師が一部にいるだけなのをご存知じゃないだけ。

123 :デフォルトの名無しさん:2006/11/15(水) 03:53:22
あ、そうなんだ。
研究室変えるわ。

124 :デフォルトの名無しさん:2006/11/15(水) 04:17:42
>>101
教師あり学習・教師なし学習を調べろ。って6月か。




つうか、ニューラルネットって、能力の限界はとっくに明らかになってるだろ?
ニューロン自体に新しいモデルを入れないとだめじゃん?

ってBPとかフィードフォワード型だけだっけ?
甘利の本読まなきゃと思いつつ未だに読んでない。

125 :デフォルトの名無しさん:2006/11/15(水) 23:30:22
ミンスキーの論文に書いてある。

126 :デフォルトの名無しさん:2006/11/18(土) 01:43:11
ニューラルチップというのは過去に大手半導体メーカーが何度も試作したが
複雑さが増えれば指数的に組み合わせが無限に増える訳で音声認識が限界だと
ファイナルアンサー済み。

127 :デフォルトの名無しさん:2006/11/27(月) 01:21:43
1つだけ言わせてくれ。今更ニューラルやってもデータ量の分布が激しいと
絶対使えないと思う。プログラム組んでみて解った。数式だけじゃ現実は
解決しないんだよ。こんなの採用するやつは何を考えているんだろう。

128 :デフォルトの名無しさん:2006/11/27(月) 02:11:28
>>126
チップの方だって、ムーアの法則で指数関数的に性能向上してる訳だぜ?

129 :デフォルトの名無しさん:2006/11/27(月) 05:16:57
>>127
1つのニューラルで全て解決しようとするからそうなる。

130 :デフォルトの名無しさん:2006/11/27(月) 09:01:15
>>128
それも終わった、intelががんばったおかげだが

131 :デフォルトの名無しさん:2006/11/27(月) 12:32:52
>>130
終わってないよ。intelのロードマップでは10年までに数百のコアを積んでくる。
それ以降も、予想が付かないほど進んでいくよ。

132 :デフォルトの名無しさん:2006/11/27(月) 14:58:26
>>128では性能と言ってるけど元々ムーアの法則は集積度の話だから、
そういう意味では終わりつつあるといってもいいと思うよ。
集積度上げるのが厳しくなってきたから、コア増やして誤魔化してるに過ぎないし。

133 :デフォルトの名無しさん:2006/11/27(月) 15:49:08
>>132
別に誤魔化している訳ではないだろ。
集積度を上げるコストやクロック数を上げるコストより、
コア増やす方がパフォーマンスがあがるということもある。
あと消費電力の問題もあるわけで。
P4系がなくなったのも、そういう理由だし。

134 :デフォルトの名無しさん:2006/11/27(月) 15:58:27
三次元配線の検討もされているらしいし、集積度もやっぱり上がると思うぜ。

135 :デフォルトの名無しさん:2006/11/27(月) 16:21:39
人間より強い商用バックギャモンプログラムSnowieは複数のニューラルネット
ワーク、TD学習の改良版を使ってる。開発経緯や機能はここから辿れる。
http://www.snowiegroup.com/index.dhtml
フリーソフトのgnubgは簡易化した構成だけど、こいつですら恐ろしく強い。

136 :デフォルトの名無しさん:2006/11/28(火) 04:59:28
>>135
学習しない状態で強いわけないだろw
愚かw

137 :デフォルトの名無しさん:2006/11/28(火) 05:01:53
>>128
それはチップの集積度の緩やかな増加状態。
ニューラルネットワークで膨らむのはビックバン的な指数増加。
比較にならん罠

138 :デフォルトの名無しさん:2006/11/29(水) 16:12:14
>>137
ビックバン的は誇張もすぎないか?
ムーアの法則は緩やかな成長ですがニューラルネットワークだと次元が
増えるような組み合わせなので比較するのはニューラルネットワーク自体を
建前的にしか知らない奴だかなぁ。
根本的に逆誤差伝播則みたいなも定番だけを利用するアルゴリズムだけを
評価しているので単純モデルが引き起こす複雑さ回路にもろに出ている
訳で脳のニューロンはそんなに組み合わせがあるわけではなく
可能性がある組み合わせであって、実配線を伴うチップと比較できる
ような仕組みではないと思う。

139 :デフォルトの名無しさん:2006/11/29(水) 16:14:18
>>138
もうちょっと落ち着いて書こう

140 :デフォルトの名無しさん:2006/11/29(水) 21:59:38
カンチガイさんが多いスレですね。
なんか人工知能がもてはやされた時代を生きた40代後半のにおいがぷんぷんします。

おじさんたちの時代の人工知能と今の人工知能とでは言葉の意味が違うよ。

141 :デフォルトの名無しさん:2006/11/29(水) 23:54:07
>>140
違わないよ

142 :デフォルトの名無しさん:2006/12/01(金) 23:46:11
「人工知能」って、達成されると「こりゃただのプログラムで『人工知能』なんてモノじゃない」になるからなぁ。
嘗ては最適化コンパイラや、鉄道乗換え案内が「人工知能」だった。

143 :デフォルトの名無しさん:2006/12/02(土) 00:24:40
まぁ、学習と記憶は別物で、
それはわかってるが、じゃあ何が違うのかってのは厳密に定義されてないからなぁ。
そういう意味で、技術革新によって、今ある人工知能はいずれ人口無能と呼ばれる。

144 :デフォルトの名無しさん:2006/12/03(日) 08:17:26
うずらだって初期のころに登場すれば
「人工知能」だったろうしな。


145 :デフォルトの名無しさん:2006/12/05(火) 13:59:50
>>143
>技術革新によって、
それは、勘違いだよ。
技術じゃなく、価値観の革命がなされないかぎり現状のまま。


146 :デフォルトの名無しさん:2007/01/16(火) 11:33:54
(´^ื౪^ื)

147 :デフォルトの名無しさん:2007/01/28(日) 00:00:56
>ニューラルネットワーク
これを理解できずに、仕組みだけを暗記して語る奴ておおいよな。
ネットワークは繋がりであって途中で基本的演算を組み合わせている
わけではない、さらに細かい原理があるように思い込みたいのはいいんだが
これ以上細かい原理は存在しない。
何故入力から計算せずに答えがでるのか?これが理解できない奴には
ニューラルネットワークの1%も理解できているとはいえない。
単に解説本を暗記しただけで中身を全く受け止めていないDQNそのもの。


148 :デフォルトの名無しさん:2007/01/28(日) 01:51:18
なぜ答えが出るかって、分かるやつはその前に居ないだろ
なぜだかわからないが、答えが出るのがニューラルネットワーク

149 :デフォルトの名無しさん:2007/01/28(日) 02:21:23
3層パーセプトロンやバックプロパゲーションだけじゃないんだけどねぇ

150 :デフォルトの名無しさん:2007/01/28(日) 03:38:33
ホップフィールドだってある!...いや,すまん.

151 :デフォルトの名無しさん:2007/01/28(日) 05:00:28
>>148
自然淘汰という理屈があるだろ、そのぐらい誰でも知っている。
因果関係が自然に答えを見つける仕組みだよ。

152 :デフォルトの名無しさん:2007/01/28(日) 05:25:39
それは解答になっていない。
そんなものが答えであるとマジメに言う気ならどうかしてる。

153 :デフォルトの名無しさん:2007/01/28(日) 19:12:42
>>148
ベイズ推論マシンと考えれば十分な理解だろ。

154 :デフォルトの名無しさん:2007/01/29(月) 01:14:12
>>152
151の本意はわからないが。
ニューラルネットワークの講義とかうけてみたけど似たような説明を受けたよ
そもそも理解しようという態度が皆無なんじゃないかな

155 :デフォルトの名無しさん:2007/01/29(月) 01:25:57
>>153
それじゃ現実の脳の動作は解明できない
双方向に結合したダイナミクスこそが命

156 :デフォルトの名無しさん:2007/01/29(月) 02:58:54
現実の脳の解明がNNの理解に必要とでも? 別物。

157 :デフォルトの名無しさん:2007/01/29(月) 09:05:40
あくまで脳の働きをまねただけだからな。
遺伝的アルゴリズムを理解するのに遺伝学は必要ないのと同じ。

158 :デフォルトの名無しさん:2007/01/29(月) 19:42:19
>>156
実際の脳を解明するためのモデルというのもNNの役割の一つ
っつーか原点

159 :デフォルトの名無しさん:2007/01/30(火) 12:36:12
>>152
キミは典型的な「おこちゃま」。ガキは大人の言うことを従っていればいい。


160 :デフォルトの名無しさん:2007/01/31(水) 08:33:27
>>157
遺伝学を知ってる方がGAの理解や開発で助けになるし、
GAによって生物の遺伝の仕組みに対する研究も行なわれてる

161 :デフォルトの名無しさん:2007/01/31(水) 11:57:20
単なる重み付き選択だろ。

162 :デフォルトの名無しさん:2007/02/01(木) 22:57:19
>>161
単なるだが、画期的とも言うw
その仕組みを毛嫌いしているのが大量にいるのも事実。

163 :デフォルトの名無しさん:2007/02/09(金) 04:17:56
ニューラルネットワークはネットワークによる情報処理を論理的にしか
解釈しないからこそ使えねーなんて考える香具師ばっかりになるんだろう。
単純な演算素子のような使い方ならいくらでも活用可能だろ。

この辺が何も進まないのは自動学習にこだわりすぎている点であって、
ファジィーのような使い方の応用をすればいいだけ。
単純モデルばかりで万能のように考えるのも的外れなんだよな。
半導体でFPGAとかをプログラムする前に完成しているように誤認する
奴とかは、途中に複雑な設計が必要なことを全く理解できていないよな。

164 :デフォルトの名無しさん:2007/02/10(土) 01:53:10
>>161
ランダム(シミュレーション)はどう選択するかが全て
それで効率や結果が大きく変わってしまう
それを「単なる」というのは何も分かってない証拠
>>163 同意

165 :デフォルトの名無しさん:2007/02/13(火) 13:56:53
四則演算専門のチップ上にニューラルを構成するのと
ニューラルチップ上に、四則演算をする為の命令を構築するのとでは
どっちが高速なの?


166 :デフォルトの名無しさん:2007/02/13(火) 18:11:18
四則演算専門のチップ上に構成するニューラルネットワークによるだろ

167 :デフォルトの名無しさん:2007/02/13(火) 21:33:24
>>165
やりたい事が書いてないのにどちらが高速かなんて分かるわけがない
それにニューラルチップと言っても色々あるし

168 :デフォルトの名無しさん:2007/02/13(火) 21:38:03
そんないろいろあったか?

169 :デフォルトの名無しさん:2007/02/14(水) 06:26:20
>>168
モデルをちょっと変形すれば、いくらでも。

170 :デフォルトの名無しさん:2007/02/16(金) 06:45:27
ネットワークそのものが情報処理の座なのに、量子コンピュータとか
DNAコンピュータとか訳のわからんことをいうのが時々います。
こんなキチガイを無視するのは簡単だが、無知な奴はこれを信じてさらに
増殖してしまいます。どうにもならんのか。

171 :デフォルトの名無しさん:2007/02/16(金) 23:16:32
無視すればすむ話なので、増殖したとしても何の問題もありません。

172 :デフォルトの名無しさん:2007/02/17(土) 11:42:40
171は典型的な無視ができないDQN君?

173 :デフォルトの名無しさん:2007/02/18(日) 01:54:49
172は典型的な無視ができない(ry

173は典型的n(ry


174 :デフォルトの名無しさん:2007/02/19(月) 07:23:28
メタだな

175 :デフォルトの名無しさん:2007/02/25(日) 09:36:10
ダメだな

176 :デフォルトの名無しさん:2007/03/19(月) 12:49:06
>>170
たしかに量子コンピュータなど考慮するほど優れているものではないのは
間違いないが、今後も同じとは限らない。

177 :デフォルトの名無しさん:2007/03/21(水) 06:14:40
良子は精子を象さんします、ぱふぱふ

178 :デフォルトの名無しさん:2007/03/26(月) 09:50:32
>>176
日本語おk

量子コンピュータなど糞以下。現実がそれを証明している。

179 :デフォルトの名無しさん:2007/03/26(月) 22:14:09
ここで聞いていいのか知らんけど、
だれかSVM(サポートベクターマシン)分かる人いない?

ttp://www.neuro.sfc.keio.ac.jp/~masato/study/SVM/index.htm
ここを見て実装しようとしてるんだが、正規化のやり方と意味が分からなくて。


180 :デフォルトの名無しさん:2007/03/27(火) 00:02:32
とりあえず何も言わずに http://www.amazon.co.jp/dp/0521780195 でも読んでみたら?
訳書もあるし http://www.amazon.co.jp/dp/4320121341

181 :デフォルトの名無しさん:2007/03/27(火) 12:16:03
>>180
その本さ、凄く簡単そうに見えるんだけど
肝心の事が書かれて無いと言うか、詳細が無いので・・・
軽く読めるけど、全く為にならんし、実装しようと思ったら逆に凄い労力かかったよ・・・。

もっとマシな本ないんかなぁ・・・


182 :180:2007/03/27(火) 12:45:38
>>181
え?そう? SMO や (dual objective などによる) 収束判定に関しても
詳説してあるし,自分は (SVM の最低限の実装なら) 特に問題なかったけど?

>実装しようと思ったら逆に凄い労力かかったよ・・・。
具体的にどこに労力がかかったのかkwsk

183 :デフォルトの名無しさん:2007/03/29(木) 22:30:40
>>170
今の時間軸でしか考えられないダメプログラマが付いて行けなくなるからって、僻むのはおよしなさい。
君たちは短命ながらもよく動いてくれたよ^^

184 :デフォルトの名無しさん:2007/03/31(土) 15:08:35
>>183
またおまえか

185 :デフォルトの名無しさん:2007/04/01(日) 16:33:37
非ノイマン系はプログラムするという概念を持ち込んじゃダメ。
基本的にネットワークなんだから、プログラムなどの枠で縛ったら
何もできなくなる。

186 :デフォルトの名無しさん:2007/04/01(日) 19:42:07
時間軸でしか考えられないプログラマか…
そういうプログラマが大半なんだがら、逆に言うと、量子コンピュータが普及しないって考え方も出来ると思うがな。
出来ないプログラマが死滅するより可能性は高そう

187 :デフォルトの名無しさん:2007/04/02(月) 19:07:08
>>186
量子コンとかあれほど研究されているのにアルゴリズムが増えないのは
考え方に問題があるのではなく、単に使えない技術が誇張されすぎただけ。
世の中の技術は科学、つまり理屈で出来ている、仕組みという理屈が通じない
世界が普及するわけがない。

188 :デフォルトの名無しさん:2007/04/02(月) 20:36:15
>考え方に問題があるのではなく、単に使えない技術が誇張されすぎただけ。
ソースor根拠希望

189 :デフォルトの名無しさん:2007/04/02(月) 23:47:23
>>187じゃないが
>あれほど研究されているのにアルゴリズムが増えない
が根拠じゃないの?
量子ビットで解ける有意な問題がほとんど無いという。
ただ、現状の公開鍵暗号システムを崩壊させられるだけでも十分にインパクトはあると思うけど。

190 :デフォルトの名無しさん:2007/04/03(火) 01:11:08
>現状の公開鍵暗号システムを崩壊
量子が突破するまえに従来技術で突破されるだろう。


191 :デフォルトの名無しさん:2007/04/03(火) 04:22:01
どの暗号システムかによる。


192 :デフォルトの名無しさん:2007/04/03(火) 21:48:33
>>190
素因数分解にしても離散対数問題にしても、解法が見つかるとはとても思えない。
ブルートフォースにしても、現状の1万倍速いCPUが出来ても
(相応に鍵長を増やすだけで)何の意味も無いことを考えると、
量子コンピュータや類似のアプローチ以外で突破は難しいと思う。

193 :デフォルトの名無しさん:2007/04/04(水) 23:52:44
>>192
それは秀才がやれば難しいだろうけど、天才なら別の問題だろう。

194 :デフォルトの名無しさん:2007/04/11(水) 18:48:55
>>192
フレーム問題の中でしか思考できない奴には難しいとしか思えないんだろう。
自分で思考の壁を作っているし。

195 :デフォルトの名無しさん:2007/04/14(土) 23:47:22
ダメな奴は何をやってもだめ。

196 :192:2007/04/16(月) 13:00:53
>>193-195
その通り過ぎて返す言葉も無い。
やっぱり壁作りすぎかなぁ。
最近、先行研究のサルベージ→問題点をぐちぐち→でも自分も解決できないループが...

197 :デフォルトの名無しさん:2007/04/18(水) 09:47:36
>>196
ガンガレw

大体に天才と言われる香具師の発想は、誰が見てもコレはキチガイとしか
いえないという発想です。常識を超えるには非常識にならないとw

198 :デフォルトの名無しさん:2007/05/04(金) 15:01:51
>>179-182
いまさらですが、リンクしておきます。

SupportVectorMachine(SVM)とその周辺
http://science6.2ch.net/test/read.cgi/sim/1152969662/

199 :デフォルトの名無しさん:2007/05/11(金) 17:36:34
このスレ面白いな。
いろんな分野の人間が話してて、レスもすごい玉石混交w。

200 :デフォルトの名無しさん:2007/05/28(月) 06:20:20
>>196
先行研究者が行ったことを繰り返しても、同じ結果になるだけである。
ループから飛び出るには理屈を越えた視点から客観視するしかない。
これは知識そのものが敵=壁なのである。
絶対ありえない、そんなオカルトのような、という点から模索し
理に叶う部分を模索すれば、先駆者が見つけられなかったありえない部分を
模索することになる。

シャーロックホームズ言葉に以下のような発言があるらしい。
彼の言葉が理解できないようなら諦めてくれ。
>彼が言うには情報が多ければ多いほど本当に必要はその中に
>隠れてしまい自分の判断を鈍らせる。
>本当にいる情報をその中から得るにはまず自分の先入観に
>とらわれない思考方法が必要だと言っている。
>そして先入観こそが我々を間違った解へ導く最大の敵とも。
>先入観にとらわれず自分にどのような情報が必要なのかを
>把握しておかなければならない。
>それらの中から絶対にありえない情報資料を削除し残ったものが
>我々の求めている解なのだと。


201 :デフォルトの名無しさん:2007/06/19(火) 19:00:06
Web上で実行する類似画像検索にニューラルを適用しようと思うんですけど、
既に先行研究があったりします?
あと、現実的な速度で出来るものなのでしょうか?
手書き文字の認識につかったりはしますけど・・・

202 :デフォルトの名無しさん:2007/06/22(金) 19:52:49
たくさんあると思う
image retrieval/database と neural network で検索するといろいろある
例えば http://citeseer.ist.psu.edu/kulkarni99content.html からたどれる

203 :デフォルトの名無しさん:2007/07/24(火) 06:18:40
まぁ、googleの検索みたいに高速検索にはつかえたもんじゃねぇけどな。
精度を落としてでも、何か結果を出せて、google並みの速度を出すなら
画像を文字列の問題に落として、DPマッチングでもさせた方が良い

204 :デフォルトの名無しさん:2007/07/24(火) 09:23:39
精度を落としたら意味無いじゃないか?
むしろGPGPUなんかでハードウェア・アクセラレーションする事を
前提にして今は基礎固めするのが研究としては真っ当だろう。

ニューラルネットを実用化する際に今の汎用CPUだけでやろうと
言うような不必要な制限を設ける理由が俺には良く分からんよ。

205 :デフォルトの名無しさん:2007/08/09(木) 22:48:18
ニューラルネットは、機械語のようなものであって。それより高い次元で
構築できるようなエージェント搭載の高級記述言語みたいので設計する時代に
ならないと、単純モデルを繰り返しやっているだけのなるのではないか?
実際の脳は神経網が多層構造や複雑な回帰と相互依存の形が存在する。
それが沢山の神経網集団を繋ぎ、個々ではたいした動作はしないが
全体として複雑な機能を実現しているんだろ。
おまいらがやっているのは単純モデルの摸倣にしかすぎない。

206 :デフォルトの名無しさん:2007/08/09(木) 23:18:48
で?

207 :デフォルトの名無しさん:2007/08/09(木) 23:26:08
毎回、で?とか言うやつは学術系の板に来るなよなって思う。
VIPで理解しやすい話だけやってろ。

208 :デフォルトの名無しさん:2007/08/10(金) 03:37:48
>>205
1つの神経細胞のモデルについてはMcCulloch-Pittsのモデルのような
粗い近似で良いのだろうか
…といったことを人工知能分野の先生に言われた

209 :デフォルトの名無しさん:2007/08/10(金) 14:33:05
>208
マカロック・ピッツのモデルでダメだと言う根拠は見つかっていない。
非線形入出力を持ち学習能力のあるネットークであれば
細かい要素は関係ないと言う考え方が主流。

つまりネットワークの規模と構造、学習規則のみに
意味があると言う考え方だな。


210 :デフォルトの名無しさん:2007/08/12(日) 13:32:09
>>209
脳の仕組みを研究すれば脳を摸倣できると思い込んでいる奴が多すぎるよな。

211 :デフォルトの名無しさん:2007/08/12(日) 14:01:56
マーが言ったようにレベルが違うからねぇ

212 :デフォルトの名無しさん:2007/08/13(月) 21:32:07
>>211
レベルではなく、次元だろ。

人工知能が云々デマカセな表現をしていたり、
脳の仕組みに注目しているマヌケ君は
異次元の概念も自分の支配化におきたいだけの希望的な思い込みにすぎない。

自己構築する情報処理を、仕組みという理屈で組み立てる情報処理で
置き換えることは考えるだけ無駄。
奴らは環境と情報処理装置の環境を無視して閉じた世界でしか
物事を計れない。
環境が大事だという基礎的なことすら受け入れようとしない。
環境に最適化して育つものと、管理する側で都合のいいものを作るもの
では考え方として次元が違うんだよな。


213 :デフォルトの名無しさん:2007/08/14(火) 20:06:12
マーの「ビジョン」を読んでから家
次元という言葉を数学と無関係に使うような奴はここには要らん

214 :デフォルトの名無しさん:2007/08/22(水) 20:24:38
>>213
日本語でおk

215 :デフォルトの名無しさん:2007/08/22(水) 20:39:56
>>212
日本語でおk

216 :デフォルトの名無しさん:2007/08/28(火) 16:32:05
>>214
ウリナラげ起源ニダ

217 :デフォルトの名無しさん:2007/08/29(水) 21:19:48
http://www.isl.titech.ac.jp/~hasegawalab/
自己増殖型ニューラルネットワークっておまえらどう思う?


いろんな人に話を聞いてみると
・学習が大変
・収束が不安
・制御できない
っとか色々不便だっていう話を聞いたんだが、お前らの意見を聞かせてくれ。

218 :デフォルトの名無しさん:2007/08/29(水) 23:39:03
そんなもん聞いてどうするんだ?

219 :デフォルトの名無しさん:2007/08/29(水) 23:58:41
せっかくだからネタふってみた
ニューラルネットワークについて話すスレだからいーじゃん

220 :デフォルトの名無しさん:2007/08/30(木) 13:03:04
ふむ,ネタと言うことなら
Numenta Releases Windows Version of NuPIC
ttp://www.numenta.com/about-numenta/press/2007-08-29.php
なんて話もあるな

221 :デフォルトの名無しさん:2007/08/31(金) 01:38:02
>>217
ようわからん
何がふえたんだ?

222 :デフォルトの名無しさん:2007/09/01(土) 23:49:56
自己増殖
ってくらいだから,ニューロンの数が自動的に増えるんじゃまいか

223 :デフォルトの名無しさん:2007/10/24(水) 19:31:38
ニューロン欠落防止のため

保守

224 :デフォルトの名無しさん:2007/11/15(木) 22:10:23
卒論でニューラルネットワークをしています。
誤差逆伝搬法で、対象データの予測をしており、精度を上げる研究をしてるんですが、
その環境が、
  入力数:15
  出力数:1
  教師データ数:32
なんです。
半年間やってみた結果、どう考えても「入力数に対してサンプル数が足りなさすぎる」という結論に至りました。
そのことを教授に伝えたのですが、できるはずの一点張り。
こちらが学生なので、そのデータで学会に論文を出していると自信満々に自慢する始末でした。
あまりにくやしいので、そのデータが間違ってることを証明してやるとタンカを切ったのですが、
なにぶん学習し始めて一年の学生では、どのように間違っていることを指摘すればいいのかわかりません。
現在論文を片っ端から読んでヒントを探しているのですが、
手がかりやヒントを知っておられる方いましたら、是非とも教えてください。
それと、私事をだらだら書いてすみませんが、どうかよろしくお願いします。

225 :デフォルトの名無しさん:2007/11/15(木) 22:20:32
てことは単層パーセプトロン?
ソースとサンプルデータ晒してみ。

226 :デフォルトの名無しさん:2007/11/15(木) 22:41:48
>>224
それ何の識別器?
15の特徴量はそれぞれ何?
現時点である程度識別する事はできてるの?
教授の「できるはず」って何をすれば何ができるはずっていう事?
精度を上げる事?だとしたら改良点は何?

227 :デフォルトの名無しさん:2007/11/15(木) 22:54:57
サンプルデータは次のようになってます。一つの行が1セットで、最初の15が入力、最後の1つが出力(教師信号)です。
0.743,0.500,0.455,0.727,0.455,0.818,0.636,0.091,0.455,0.636,0.818,0.318,0.500,0.045,0.318,0.700
0.486,0.000,0.682,0.682,0.136,0.500,0.591,0.136,0.409,0.500,0.682,0.545,0.591,0.409,0.318,0.500
0.714,0.469,0.636,0.545,0.545,0.455,0.364,0.545,0.636,0.636,0.545,0.364,0.545,0.727,0.545,0.600
0.714,0.594,0.136,0.727,0.636,0.909,0.727,0.455,0.727,0.455,0.727,0.409,0.227,0.045,0.227,0.200
0.829,0.781,0.727,0.636,0.727,0.545,0.636,0.727,0.727,0.818,0.727,0.591,0.591,0.500,0.682,0.400
0.771,0.313,0.636,0.727,0.364,0.727,0.909,0.000,0.364,0.818,1.000,0.318,0.591,0.045,0.227,0.700
0.771,0.531,0.000,0.818,0.545,1.000,0.818,1.000,0.636,0.636,0.909,0.500,0.773,0.227,0.318,0.400
0.429,0.281,1.000,0.727,0.545,0.455,0.727,0.636,0.818,0.727,0.727,0.591,0.318,0.864,0.682,0.500
0.771,0.313,0.545,0.545,0.909,0.455,0.455,0.636,0.636,0.545,0.545,0.773,0.500,0.318,0.318,0.500
0.486,0.438,0.727,0.909,0.545,0.545,0.455,0.727,0.727,0.636,0.818,0.500,0.500,0.227,0.500,0.300
0.857,0.563,0.000,0.909,0.000,0.455,0.818,0.000,0.273,0.636,0.727,0.318,0.318,0.227,0.136,0.600
0.714,0.375,0.455,0.727,0.727,0.818,0.455,0.455,0.545,0.273,0.000,0.045,0.682,0.045,0.136,0.300
0.200,0.844,0.182,0.909,0.000,0.545,0.636,0.636,0.273,0.545,0.727,0.955,0.409,0.318,0.682,0.200
0.800,0.469,0.364,0.636,0.727,0.636,0.727,0.545,0.545,0.636,0.909,0.864,0.136,0.136,0.500,0.600
0.800,0.281,0.636,0.455,0.818,0.909,0.545,0.727,0.909,0.273,0.364,0.455,0.818,0.545,0.273,0.600
0.829,0.438,0.364,0.545,0.000,0.727,0.545,0.455,0.636,0.545,0.455,0.227,0.773,0.227,0.227,0.500
0.714,0.500,0.182,0.818,0.000,1.000,0.636,0.273,0.545,0.727,0.545,0.227,0.955,0.318,0.318,0.600
0.600,0.344,0.909,0.818,0.273,0.909,0.455,0.182,0.455,0.545,0.818,0.227,0.682,0.409,0.409,0.300
0.629,0.500,0.273,0.818,0.000,0.818,0.818,0.273,0.364,0.727,0.455,0.864,0.500,0.409,0.227,0.300

228 :デフォルトの名無しさん:2007/11/15(木) 22:57:59
続き
0.657,0.500,0.818,0.727,0.455,0.636,0.182,0.182,0.091,0.455,0.636,0.682,0.409,0.136,0.682,0.200
0.829,0.813,0.091,0.636,0.000,0.545,0.455,0.636,0.545,0.545,0.727,0.773,0.591,0.773,0.591,0.500
0.629,0.391,0.818,0.818,0.273,0.727,0.727,0.364,0.364,0.455,0.545,0.773,0.591,0.318,0.682,0.500
0.800,0.094,0.909,0.636,1.000,0.636,0.727,0.545,0.182,0.455,0.455,0.227,0.682,0.591,0.227,0.400
0.629,0.391,0.818,0.727,0.727,0.909,0.909,0.545,0.727,0.455,0.818,0.409,0.864,0.591,0.318,0.300
0.857,0.656,0.727,0.545,0.636,0.455,0.364,0.818,0.636,0.273,0.636,0.773,0.500,0.318,0.409,0.500
0.829,0.438,0.455,0.545,0.818,0.727,0.364,0.636,0.545,0.727,0.545,0.318,0.864,0.227,0.591,0.000
0.657,0.594,0.727,0.455,0.545,0.818,0.636,0.727,0.636,0.636,0.727,0.591,0.682,0.682,0.682,0.400
0.914,0.438,0.364,0.364,0.273,0.727,0.818,0.455,0.455,0.455,0.545,0.318,0.591,0.227,0.227,0.500
0.829,0.656,0.636,0.636,0.455,1.000,0.545,0.364,0.545,0.636,0.818,0.409,0.591,0.045,0.227,0.500
0.314,0.281,0.091,0.727,0.364,0.909,0.545,0.364,0.364,0.545,0.636,0.500,0.773,0.045,0.227,0.500
0.686,0.219,0.455,0.455,0.727,0.591,0.500,0.227,0.591,0.591,0.591,0.455,0.727,0.182,0.364,0.000
0.629,0.281,0.636,1.000,0.909,0.455,0.818,0.182,0.455,0.364,0.727,0.227,0.500,0.045,0.318,0.300
以上です。
プログラムは、熊沢逸夫著「の学習とニューラルネットワーク」という本のバックプロバゲーション部分をJavaで書き直した物で、
普通のデータ(XORを試しました)であれば、正常に学習、予測することは確認しています。

229 :デフォルトの名無しさん:2007/11/15(木) 23:07:30
ソースコードは?

230 :デフォルトの名無しさん:2007/11/15(木) 23:10:56
>>226

> それ何の識別器?
> 15の特徴量はそれぞれ何?

入力は個人の性格や能力を15の分野に分け、0〜1に正規化した物で、それを元にある問題の解答率を出力とします。
実験手順は、
・32個のサンプルデータのうち、24個を学習に使い、誤差逆伝搬法で学習する。
・十分に学習できたところで、残りの8個を推測する。
・残りの8個の真の値(教師信号)と、ネットワークで推測した出力の誤差で、ネットワークの正確さを評価する
といった感じです。

> 現時点である程度識別する事はできてるの?
できます。現在のところ、どんな初期値にしても推測がほぼ±0.2に収まります。またXORで正常にプログラムが働くことを確認しました。

> 教授の「できるはず」って何をすれば何ができるはずっていう事?
その教授曰く、自分のプログラム(MATLAB)ならできるとのこと。
曰わく、「そのプログラムは教授が長年蓄えた知識でさまざまな工夫がされている」らしく、
その技術はお前に教えたからできるはず、ということらしいです。
しかし、つっこんで聞いてみるとたくさんの学習をさせて、たまたま予測が良かったものをすべて足し併せて平均を取っているだけのようです。

> 精度を上げる事?だとしたら改良点は何?
推測値と真の値との差を0.1以内に納めろ、ということでした。
もっとも、7月にはすでにプログラムが完成しており、うまくいかないというと場当たり的なアドバイスをもらうだけでしたが。


個人的には、ニューラルネットワークはたまたま予測が上手く言った物を足し合わせてそれを解としてしまえるような、
適当な物ではなかったはずなのですが・・・。
教授曰わく統計的にはうまくいくらしいですが、本当にほかの現場でも同じような手が取られているのか疑問です。

231 :デフォルトの名無しさん:2007/11/15(木) 23:20:27
>>229
汚いソースコードで恐縮ですが、うpしときました。
http://www.uploda.org/uporg1113870.zip.html

中のframeworkパッケージがメインで、Tableを使ってプログラムします。
重ねてすみませんが、プログラム自体は特別な処理はしていません。

232 :224:2007/11/15(木) 23:27:59
要約しますとこんな感じです。

・入力数15、出力数1、サンプルデータ32の成績推測で、予測が±0.1以内に収まらなければならない。
・自分で組んだ誤差逆伝搬法とttp://www.geocities.jp/retort_curry119/NN.htmここのBP法では±0.2が限界。
・教授は確率が良かったネットワークを足し合わせて平均してる。

どうしたいのか

・この研究の前提としてサンプルデータが少なすぎることを指摘したい
・もし上の主張が間違っているのであれば、正しいネットワークの学習法を知りたい(その場合は潔く頭を下げに行きます

233 :224:2007/11/15(木) 23:45:05
こちらのほうにプログラム全体のソースコードをアップしときました。
http://sund1.sakura.ne.jp/uploader/source/up14952.zip
基本的なテストはJUnitで書いてますので、tpフォルダ内のプログラムを見ればどう使っているのかがわかると思います。

234 :デフォルトの名無しさん:2007/11/16(金) 00:01:28
サンプルが少なすぎる事を証明したいならサンプルを増やして精度が上がることを示せばいいんじゃないの?
さらにサンプルを用意して比較するとか、
それが難しいなら教師信号を少ない数から学習させていって精度の向上具合をグラフにしてまだ上がりそうな事を示すとか。
まぁそもそも元のデータにノイズが入ってるとサンプルを増やしても精度は或る程度の誤差を持ったまま頭打ちになるけど。

235 :224:2007/11/16(金) 00:09:15
> それが難しいなら教師信号を少ない数から学習させていって精度の向上具合をグラフにしてまだ上がりそうな事を示すとか。

それなら出来そうですが・・・、俺ならこのデータでも十分だ!、とか言いそうで怖い・・・。

> まぁそもそも元のデータにノイズが入ってるとサンプルを増やしても精度は或る程度の誤差を持ったまま頭打ちになるけど。

それは考えてませんでした。
サンプルデータの右端の列(出力の教師信号)を見てもらえばわかるんですが、
すべての値を0.1刻みに区切ってあるんです。つまり、サンプルデータ自体に±0.05の誤差を含むんでいます。
これで誤差を持ってることが証明できますね。ありがとうございます。

236 :デフォルトの名無しさん:2007/11/16(金) 00:48:31
>それなら出来そうですが・・・、俺ならこのデータでも十分だ!、とか言いそうで怖い・・・。
SVMって聞いたことある?サポートベクターマシン。
少ない教師信号でも未知データに対する精度がBP法より高いと言われてるから、
それと同程度ならBP法でも十分な学習ができたと判断していいんじゃないかな。
SVMライブラリはググればいくつか見つかる。

237 :224:2007/11/16(金) 00:59:29
>>236
名前は聞いたことがあるのですが、実際にやってみたことはありませんでした。
そのSVMとBP法の予測を比較してみようと思います。

238 :デフォルトの名無しさん:2007/11/19(月) 10:47:51
というか、これ中間層の数いくつでやってるの?
中間層のユニット数増やせば、いくらでも誤差減らせると思うんだけど
今ためしに自分の書いたプログラムで中間層の数5でやってみたら1秒かからずにここまで誤差減らせたけど
0 0.682308 0.700000 16 0.576228 0.600000
1 0.484078 0.500000 17 0.310864 0.300000
2 0.620793 0.600000 18 0.305802 0.300000
3 0.213112 0.200000 19 0.196997 0.200000
4 0.417943 0.400000 20 0.496074 0.500000
5 0.713331 0.700000 21 0.537518 0.500000
6 0.400664 0.400000 22 0.377821 0.400000
7 0.492160 0.500000 23 0.333802 0.300000
8 0.531899 0.500000 24 0.491570 0.500000
9 0.280287 0.300000 25 -0.012757 0.000000
10 0.600956 0.600000 26 0.376582 0.400000
11 0.297781 0.300000 27 0.499210 0.500000
12 0.200848 0.200000 28 0.495079 0.500000
13 0.538449 0.600000 29 0.499226 0.500000
14 0.568660 0.600000 30 0.011226 0.000000
15 0.503874 0.500000 31 0.309703 0.300000

239 :デフォルトの名無しさん:2007/11/19(月) 12:27:23
>>238
>・32個のサンプルデータのうち、24個を学習に使い、誤差逆伝搬法で学習する。
>・十分に学習できたところで、残りの8個を推測する。
>・残りの8個の真の値(教師信号)と、ネットワークで推測した出力の誤差で、ネットワークの正確さを評価する

240 :デフォルトの名無しさん:2007/11/19(月) 12:47:56
全然読んでなかった
最初の24個を使って学習させて、残りの8個を推測させたら全くでたらめだった
0 0.173739 0.500000
1 0.736736 0.000000
2 0.313203 0.400000
3 0.843554 0.500000
4 0.302446 0.500000
5 0.441595 0.500000
6 0.831326 0.000000
7 0.853432 0.300000

241 :224:2007/11/19(月) 17:49:57
>>240
わざわざ実行してもらってありがとうございます。

やはりここまででたらめな推測値が出るっていうのはサンプルに一貫性がないか、
データ数が全然足りないかのどちらか(もしくは両方)だと思うのですが、
この考えはあっているでしょうか?

242 :デフォルトの名無しさん:2007/11/19(月) 18:36:22
さあどうなんだろう?
ただ同じ構造のネットワークで24件だけでなく32件全てに当てはまる
パラメータは確かにあるわけだから、どんな初期値で24件の学習だけからでも
残りの8件をうまく予測するパラメータに収束させる方法があるのかもしれない

SVMとかいうのはどうなんだろうか
やってみた?

243 :224:2007/11/19(月) 20:35:45
>>242
いえ、現在はサンプル数を増やしたときに、精度が上がることを証明する実験と、
中間報告の書類を書くのに手がいっぱいで、教えてもらいながら申し訳ないことに、SVMまで手が回っていません。

244 :224:2007/11/20(火) 14:50:43
あれから学習データを段階的に増やしていき、予測精度が上がるかを実験してみたのですが、
残念なことにほとんど上昇が見られませんでした。
こうなると、もはや汎化能力の限界が0.2であるとしか思えないのですが、それを肯定するような実験結果も出せていません。
とりあえず、今からSVMでどこまでやれるか試してみようと思います。

245 :224:2007/11/20(火) 15:52:57
なんだかスレを占有してしまっているみたいですみません。

現在、サンプルデータ数と重みの数について調べていたところ、このような記述がありました。

> 3.4 まとめ
> (1)汎化能力をもつには、学習データ数と重みの数の比率は少なくとも10以上は必要である。

3章 学習データと入力表現
ttp://cae.co.jp/ksrg/report/reportnn03.htm
の一番下

入力数15の場合、中間層ニューロン数が3でも、15 * 3 + 3 * 1 = 48の重みがあるので、
データ数:重みの数 = 32 : 48 となり、比率は1にも届きません。
やはりサンプル数が圧倒的に少ないと思うのですが、どうでしょうか。

246 :224:2007/11/20(火) 22:29:16
>>224です。とりあえず納得できる理由が見つかったので、これで最後にしようと思います。

ネットワークの評価を調べてVC次元関連を見ていたところ、「次元の呪い」という事象があることを知りました。

次元の呪い - 朱鷺の杜Wiki
ttp://ibisforest.org/index.php?%E6%AC%A1%E5%85%83%E3%81%AE%E5%91%AA%E3%81%84

入力数15というのが、ここのいう高次元に当てはまるかというのはわかりませんが、
中で説明されている、球面集中現象は、私が求めていたイメージとぴったりでした。
あとはこれを元に中間発表を仕上げようと思います。

混乱していたときに、方向性を示してくださった皆さんには感謝しても感謝しつくせません。
長々とつきあってくださったみなさん、どうもありがとうございました。

247 :デフォルトの名無しさん:2007/11/20(火) 22:47:20
SVMはどうだった?
興味あるから最後と言わずもっと書いて欲しいな。

248 :224:2007/11/20(火) 23:31:40
>>247
そういっていただけるのは非常にありがたいです。
それに、よく考えればここまでしていただいて、
ことの顛末(教授がどんなリアクションを取るか)を言わずに去るのは失礼というもんですね。

今さっきの言葉を翻すようですが、今週中に中間発表が終わりますので、
今週末ぐらいに中間発表の雰囲気と教授のリアクション、
それとできればSVMとの比較を短くまとめて上げさせてもらおうと思います。

249 :デフォルトの名無しさん:2007/11/21(水) 02:39:53
ん、15次元で高次元てのはいくらなんでも無理がある気が。

250 :デフォルトの名無しさん:2007/11/21(水) 12:35:25
>>249
そうかな?入力が10以上もあれば球面集中現象は起こりうると思うんだけど。

251 :224:2007/11/27(火) 13:17:16
>>224です。先週末中に報告すると書いていたのですが、遅れてすみませんでした。

先週末に発表があったのですが、結果から書くと正しかったみたいです。
中間報告で主に、
・汎化能力を得るには最低でも数百が必要
・球面集中現象
・サンプルデータの誤差
などについて詳しく報告しました。
プレゼンが上手くなかったことと、ニューラルネットワークに明るい教授らが多くなかったこともあり、
特に質問はなかったのですが、「なぜいままで失敗に気づかなかったのか」という質問に対して、
「担当の教官が正しいと言い張っていた」と答えたところ、会場に笑いが広がりました(失笑ではなかった、と思います)
教授も同じ会場だったのですが、周りに混じって苦笑していました。

そのときに、ひとまず私の主張は認められたようで、それ以来教授との間は一応平静を保っています。

252 :224:2007/11/27(火) 13:24:36
これでひとまず認められ、一矢報いることが出来たと思うので、私としてはこの件に納得できました。

今後は、大幅に遅れましたがニューラルネットワークの応用分野か、
もしくは今回の経験を元に、汎化能力を得るために必要な条件(サンプル数、最大誤差、重みの数など)を
研究しようと思います。
重ね重ね、力になってくださった皆さん、本当にありがとうございました。

蛇足ですが、SVMとの比較はまだ全く出来ていないので、実験できて次第こちらで報告させてもらおうと思います。

253 :デフォルトの名無しさん:2007/11/27(火) 13:36:39
ぉっぉっ
SVMの報告も楽しみにしてる

254 :デフォルトの名無しさん:2007/12/02(日) 20:23:34
今初めて読んだけど、頑張ったね (^^

SVMは分類器 (サンプルがどのカテゴリに入るのかを答える) なので、
回帰分析に使いたければ、SVR (Support Vector Regression) でぐぐるといいよ。

次元の呪いでサンプル数が足りない場合には、
主成分分析や因子分析 (どちらも似たようなもの) で、
次元数 (入力ユニット数) を減らせる「場合もある」よ。

SVRはBP法よりも難しいので、アルゴリズム自体を研究したいのでなければ、
ライブラリを使うといいかもね。



255 :254:2007/12/02(日) 20:31:57
>>254>>224宛てでした。
言語はC++だけど、OnlineSVRというライブラリが公開されていたはず。
追加学習できるように改良されているのと、他のライブラリに依存していなくて読みやすいので、
私はJavaに移植して自分の研究で使っていました (他の部分が全部Javaなので) 。

ここまで書いて、見つけてきた。
http://eris.liralab.it/wiki/OnlineSVR



256 :224:2007/12/02(日) 20:59:30
>>255
ありがとうございます。冒頭の優しいお言葉に思わず目が潤んでしまいました。
実は先週からテスト期間に突入してまして、SVMについて調べられていなかったんですが、
SVRというものがあるんですね。ライブラリも公開されているようで、是非活用させていただきます。
言語は一応C++も使えるので、長期的に使う予定のない現状なら、そのままC++で実験しようかと思います。

257 :デフォルトの名無しさん:2007/12/30(日) 02:05:23
あげ

258 :デフォルトの名無しさん:2007/12/30(日) 16:07:56
ニューラルネットワークって人工知能のことだろ?
シリコンのCPUじゃ無理なんだよ
バイオコンピューターでも開発してくれ

259 :デフォルトの名無しさん:2007/12/30(日) 16:13:59
aho

260 :デフォルトの名無しさん:2007/12/30(日) 18:42:51
攻殻機動隊のタチコマは、ニューロチップなるものを使用してAIを実現してるらしい。
名前からすると、チップの構造自体が自己組織化する(物理)人工ニューラルネットワーク見たいなものか。

261 :デフォルトの名無しさん:2007/12/30(日) 18:58:32
計算機でシミュレーションすればいいじゃん。

262 :デフォルトの名無しさん:2007/12/31(月) 04:23:18
できるかどうかは別にして。実用的なニューラルネットワークのシステムを作る場合。
計算機のシミュレーションじゃ遅すぎて使い物にならないと思われ。

263 :デフォルトの名無しさん:2007/12/31(月) 04:53:30
実際ニューラルネットワークってでこかで実用されてるの?
うちの教授が画像診断で実用化されて、優秀な結果を出してるとか力説してたけど。

264 :デフォルトの名無しさん:2007/12/31(月) 10:12:10
実用例知ってんじゃん

265 :デフォルトの名無しさん:2007/12/31(月) 10:22:47
早い遅い
どこら辺が基準


266 :デフォルトの名無しさん:2007/12/31(月) 10:37:44
もう既に実用的に使えるなら、みんな知ってるだろ。
探さないと無いような物は、実際には使えなかったもの。
研究者は実用に使えると言う場合が多いが、製品にならないと実用とはいえない。

267 :デフォルトの名無しさん:2007/12/31(月) 10:51:05
>>265
速い遅いと判断できる実用的なものは無いと思われ。
実用的なものが出来てから判断するもの。
遅いから実用にならないのかもしれんがなw

268 :デフォルトの名無しさん:2007/12/31(月) 11:40:46
だいぶ前から家電なんかにも使われてると甘利先生が書いてた
話題にならなくなった時が実用化された時

269 :デフォルトの名無しさん:2007/12/31(月) 11:49:00
それはファジーじゃないのか? ニューラルネットワークを使った製品の出して。

270 :デフォルトの名無しさん:2007/12/31(月) 17:36:07
音声認識とか文字認識とか

271 :デフォルトの名無しさん:2007/12/31(月) 20:32:04
音声認識とか文字認識とかをニューラルネットワークで作った家電品があるのか?

272 :デフォルトの名無しさん:2007/12/31(月) 21:14:32
普通のロジックで作られた音声認識も文字認識も一般の製品で販売され、
プリンターやスキャナーには無料で添付され。そこかしこに溢れかえっている。
もし、ニューラルネットワークで作られた音声認識や文字認識が優秀なら、
それら製品と入れ替わっているはずだが、そうなっては居ない。
ここから言える結論は、
ニューラルネットワークのシステムはいまだ使い物にならない。(実用化されていない)

273 :デフォルトの名無しさん:2007/12/31(月) 21:31:20
普通のロジック?????

274 :デフォルトの名無しさん:2007/12/31(月) 21:40:42
まあ、プログラムと言い換えてくれ。

275 :デフォルトの名無しさん:2007/12/31(月) 21:45:47
普通のロジックで作られた音声認識も文字認識も一般の製品で販売され、
→プログラムで作られた音声認識も文字認識も一般の製品で販売され、
????

276 :デフォルトの名無しさん:2007/12/31(月) 21:53:05
>>275
もっと詳しく書かないと理解できないのか?

プログラムで作られた音声認識システムも文字認識システムは、一般の製品で販売されている。
この場合のプログラムとは、ニューラルネットワークの仕組みではなく、手続き型のプログラムを意味する。

これでも足りないか?

277 :デフォルトの名無しさん:2007/12/31(月) 21:53:47
×プログラムで作られた音声認識システムも文字認識システムは、一般の製品で販売されている。
○プログラムで作られた音声認識システムや文字認識システムは、一般の製品で販売されている。


278 :デフォルトの名無しさん:2007/12/31(月) 22:00:37
進化型計算もここでいいですか?

ちょっと齧ってみた素人なんですが、進化型計算で得られる結果は主にアルゴリズム(計算方法)という認識でよろしいでしょうか?

279 :デフォルトの名無しさん:2007/12/31(月) 22:05:14
結果はアルゴリズムではない。

280 :デフォルトの名無しさん:2007/12/31(月) 22:11:42
>>276
最初から手続き型と書けよw

281 :デフォルトの名無しさん:2007/12/31(月) 22:14:05
279だが、もう少し詳しく。
一般に、進化型計算で得られる結果は、目的の値または目的を効率よく得られたパラメータの
値の事かな?
どちらにしてもアルゴリズムとは言えない。上記認識で有っているか?
有っていないなら、より詳しい説明を求む。

282 :デフォルトの名無しさん:2007/12/31(月) 22:18:02
>>280
ニューラルネットワークのエミュレーションも手続き型の結果だからね。
その辺の混乱を、普通のロジック=ニューラルネットワークの仕組みではなく、手続き型のプログラムを意味する
のつもりで書いたのだが、短文で意味を伝えるのは難しいな。

283 :デフォルトの名無しさん:2007/12/31(月) 22:45:01
>>281
278ds

進化型計算の結果は「進化した計算手法」だと思っている。
簡単な例だと、「1,2,3,4の4つの数値から四則演算を任意に行って10を作りなさい」という目的が設定された環境で
進化するエージェントは四則演算をパラメータとしてみてその組み合わせを目的に合うように最適化していく。

という感じで、その結果得られるのは「目的を満たすための手段=アルゴリズム」だと思っている。

284 :268:2007/12/31(月) 23:09:44
KYずに遅レス
家電で実用化されてるのは,と言うより今実用化されてるNNはパターン認識系ではなく,BPNNの補間機能を利用したソフトな制御を行うタイプ.
だから分野はファジーと同じだが,一旦値が決まってしまえばファジーより簡単に(小さなコストで)実装できる.
他にはPOS,データマインニング,クレジットカードの悪用検出などで使われていると聞いている.

285 :268:2007/12/31(月) 23:12:09
スマソ,上げちまった

286 :デフォルトの名無しさん:2007/12/31(月) 23:29:45
進化型計算の目標に遺伝子のアルゴリズムが有ると思う。これは、自身のアルゴリズムを
自身で書き換えて進化してきた。しかし、現在の計算機での進化型計算は、自身で自身を
書き換えるまでに達していない。既に内包しているアルゴリズムを再発見して違う形のパラ
メーターとして最適化しているに過ぎない。これでは、プリグラムで定義された範囲内を超
える事は出来ない。これは、既に組み込まれた内容の範囲をパラメーターで指定している
に過ぎない。新たなアルゴリズムを導き出したと言えるのだろうか?

もしそれでいいのなら、コンパイラコンパイラに代表するプログラムジェネレーター総てが
進化型計算計算と大差が無い。
自身に内包するアルゴリズムを出したのでもいいなら、結果がアルゴリズムでいいだろう。
特にプログラムジェネレーターはアルゴリズムを実際に出している。
それに比べ、プログラムの動き方が変わったパラメーターが生成できたとして、
私はそれがアルゴリズムだとは言いたくない。

進化型計算が目指すものは、遺伝子と同じく自身を書き換え新たなアルゴリズムを
目つけることが必要ではないか、私はそう考えている。

287 :デフォルトの名無しさん:2007/12/31(月) 23:39:57
286、言い回しの重なりと 計算計算の2重化、申し訳ない。
よろしければ、うまく汲み取って欲しい。

288 :デフォルトの名無しさん:2007/12/31(月) 23:53:57
>POS,データマインニング,クレジットカードの悪用検出などで使われていると聞いている.
これに付いての知識が無いため、評価する事が出来ない。

私が参加した元々の命題。「早い遅い  どこら辺が基準」に対して。
基準とは、一般に広まった結果の最大公約数的なものが必要だと思っている。
したがって、極一部の例で速い遅いの判断は不可能であると指摘したい。

289 :デフォルトの名無しさん:2007/12/31(月) 23:57:30
なんか細かい話はよくわからんが、例えばスパコンだって汎用的に使えるわけじゃないけど「速い」んだから
一般的にどうこうってのは、あんまり意味がない気がする。

290 :デフォルトの名無しさん:2007/12/31(月) 23:59:51
スパコンには、一般的に評価できる計算プログラムが有りますよ。

291 :デフォルトの名無しさん:2008/01/01(火) 00:02:05
その評価プログラムの結果なら正当な評価なの?

292 :デフォルトの名無しさん:2008/01/01(火) 00:07:16
ランキングが世界的に認められてるから正当だと思われ。
ちなみに、君のPCでも実行できたはず。

293 :デフォルトの名無しさん:2008/01/01(火) 00:09:26
意味が通じてないみたいだからいいや。お休み。

294 :デフォルトの名無しさん:2008/01/01(火) 00:09:37
ニューラルネットは、それが間違いなく動作するのかどうかテストするのが難しいから、
市販品には採用されることはほとんどない。
しかし、最先端のロボットなどには積極的に使われているよ。

295 :デフォルトの名無しさん:2008/01/01(火) 08:01:00
ニューラルネットって効率悪いよな

296 :デフォルトの名無しさん:2008/01/02(水) 00:13:36
>間違いなく動作するのかどうかテストするのが難しいから
これは目的による.したがって,
>市販品には採用されることはほとんどない
これは誤り.学習させたNNの機能は簡単にテストできる.

297 :デフォルトの名無しさん:2008/01/02(水) 00:17:49
>>296
不可能。
NNのテストはすべての取りうる値を入力しなければならないから。

298 :デフォルトの名無しさん:2008/01/02(水) 00:19:34
>>296
テストのことを知らないnoobかもしくは
研究室から一歩も出たことないボンボンですか?

299 :デフォルトの名無しさん:2008/01/02(水) 00:20:57
>NNのテストはすべての取りうる値を入力しなければならない
え?

300 :296:2008/01/03(木) 09:49:19
あのな,離散値でしか使わないNN応用も一杯あるの
それに連続値でも「分解能」ってのがあるの
コンピュータを知らない純粋数学屋さん?

301 :デフォルトの名無しさん:2008/01/03(木) 19:41:48
296の言いたいことは分かるけど、
網羅テストが簡単に出来るような問題は
NNに向いてないんじゃないかな?

で、組み合わせ爆発が起きるような問題に対しては
テンプレートデータを出来るだけ多く持ってきてテストするしかないから、
「テストが難しいから〜」っていうのは結局どんな手法にも当てはまるんだよね。
結局、NNがそう言われるのは過程がブラックボックス的というか
人の直感から遠いから、気持ち悪いって事だと思う。

302 :デフォルトの名無しさん:2008/01/03(木) 19:59:58
まぁ,テスト云々っていったら
「熟練工が作る鋳物は必ず成功しているか?一度ためしに使ってうまくいったから成功といえるのか?」
というもんだからな

303 :デフォルトの名無しさん:2008/01/07(月) 21:18:23
>網羅テストが簡単に出来るような問題は NNに向いてないんじゃないかな?
実際にそういう応用が多いという事実が答えでしょう
これは俺の推測だが,実際の応用は組込みシステムでのデータ量や計算量の圧縮的な用途が多い様な気がする
普通のやり方でもできるけど表が大きくなるとか計算に時間が掛かるとか

304 :デフォルトの名無しさん:2008/01/07(月) 21:33:50
>>303
確か前に計算したことがあるが、適切なアルゴリズムを用いればNNよりもあらゆる面で効率的に処理可能だったと思うぞ。

305 :デフォルトの名無しさん:2008/01/08(火) 01:28:54
そりゃハードと問題(必要な機能)に依存するはず
常に成立するとは思えないし,少なくとも証明は不可能だろう
32 or 16 bit 程度の積和演算だけはやたら速いプロセッサもあるし

306 :デフォルトの名無しさん:2008/01/08(火) 11:16:49
積和演算といえばDSPか

307 :デフォルトの名無しさん:2008/01/08(火) 15:03:19
最近?はマルチメディアプロセッサなんてのもあるな

308 :デフォルトの名無しさん:2008/01/08(火) 15:05:54
>>306
携帯v.sニューロというわけか

309 :デフォルトの名無しさん:2008/01/08(火) 22:16:01
>>307
CELLでNNやると速いのか?

310 :デフォルトの名無しさん:2008/01/08(火) 22:26:52
>>309
浮動小数点数演算に特化して、しかもマルチコアだから、
それように作ったプログラムなら普通の数十倍出るかもね。
ただし、計算順序を工夫したりする必要はあるだろうけど。

311 :デフォルトの名無しさん:2008/01/08(火) 22:30:36
CELLクラスタに俺の脳を移植してよ

312 :デフォルトの名無しさん:2008/01/08(火) 23:28:54
それはいい考えだな
まずはコンパクトな脳から試すのがいいね

313 :デフォルトの名無しさん:2008/01/08(火) 23:32:15
さて、そろそろ論文締め切りが間近だが、
切羽詰った状況でなぜか部屋の掃除がしたくなるのは俺だけではないはずだ

314 :デフォルトの名無しさん:2008/01/08(火) 23:42:55
俺も現在似たような状況だがドラクエIVのDS版を始めてしまった。

315 :デフォルトの名無しさん:2008/01/09(水) 01:52:24
>>314
あ〜そりゃもうやめられないな
お前、今回は落としたな

316 :デフォルトの名無しさん:2008/01/09(水) 01:56:36
代わりに書いてやろうか

317 :デフォルトの名無しさん:2008/01/09(水) 03:22:08
ニューラルネットで、論文生成するプログラム組んだらいいんじゃない?

318 :デフォルトの名無しさん:2008/01/09(水) 08:12:51
>>317
お前マジ頭いいな。

319 :デフォルトの名無しさん:2008/01/09(水) 10:59:54
>>317
論文の内容を悩むところだが、
ニューラルネットで論文生成するプログラム組む方法を論文にすればいいんじゃね?

320 :デフォルトの名無しさん:2008/01/09(水) 11:08:35
>>319
NNじゃないが、そういうのは前に発表されてたな
http://pdos.csail.mit.edu/scigen/

321 :デフォルトの名無しさん:2008/01/17(木) 07:21:32
生データから抽出すべき特徴量を決定する指針ってある?
あれば教えて欲しい

322 :デフォルトの名無しさん:2008/01/17(木) 11:39:20
主成分分析

323 :デフォルトの名無しさん:2008/01/17(木) 11:39:44
あ,判別分析の方がいいかも

324 :デフォルトの名無しさん:2008/01/17(木) 12:54:47
なるほど
ググって調べてみる
サンクス

325 :デフォルトの名無しさん:2008/01/22(火) 23:36:24
ニューラルネットワークで密や疎というのはどんな事を意味するんですか?

326 :デフォルトの名無しさん:2008/01/23(水) 03:25:24
スパース表現のことか? それなら
「神経回路網モデルとコネクショニズム」甘利俊一 [補稿]黒崎政男
東京大学出版会 認知科学選書22 ISBN4-13-013072-2 1989年初版
の 5.4 スパース符号化による連想記憶
が参考になる.図書館で探して

327 :デフォルトの名無しさん:2008/01/23(水) 07:27:44
それみたいです
本も調べてみます
ありがとうございます

328 :デフォルトの名無しさん:2008/01/23(水) 20:51:28
本が見つからない場合に備えて簡単に書いておくと,
データをどの位粗く表現するかってことで(マンマや),
例えば0〜15の整数を4bit(4本)の二進数で表現するのは(情報量的に)最も密な表現.
これに対し,入力の線を16本用意してそのどれかを1にするのはやや疎な表現.
100本位用意して適当な数本(一本もあり)を1にするのは疎な表現.
1000本だと凄く疎な表現(こういう区別そのものは厳密ではないし,決まっているわけでもない).
大切な事は,疎な表現を採用すると連想記憶のの記憶容量を増やすことができる点.
BP学習の場合は収束が速くなる(密な表現だと凄く収束し難いことは経験的に良く知られていた).

329 :デフォルトの名無しさん:2008/01/23(水) 21:42:00
なるほど〜
すごく分かりやすい
ありがとうございます

330 :デフォルトの名無しさん:2008/01/24(木) 19:02:04
ニューラルネットワークでの株価予測について質問です
いくつかの論文で,予測株価と実際の株価の誤差を取るのではなく,方向一致率と呼ばれるもので判断しているんです
方向一致率は,上下変動が一致した回数を予測した回数で割ったものです
これって単純に誤差を取るよりもどんなメリットがあるのでしょうか?
ソースはあっても無くてもいいので,どなたか教えてください

331 :デフォルトの名無しさん:2008/01/24(木) 19:26:55
>予測株価と実際の株価の誤差
は評価でき(るほど上手くいか)ないから代わりに使ってるんだと思われ

332 :デフォルトの名無しさん:2008/01/24(木) 19:40:23
>>330
質問には答えられないのだが、参考までに
ニューラルネットを使った株価予測の論文を読んでみたいです。
よければ、ポインタを教えてください

333 :デフォルトの名無しさん:2008/01/24(木) 22:46:48
>330
株を売り買いして利益を出すには株価そのものを予測する必要はなく
その時点から直近で上がるか下がるかだけ予測できれば良いから。

実用的に必要最小限の予測をしている(方が予測が当たりやすい)から
だと思われ。まあ、変動があまりに小幅なら売買手数料のために逆に
損する可能性もあるが。

334 :デフォルトの名無しさん:2008/01/25(金) 16:14:45
GPUを使った実装というのに挑戦してみた。
オライリー本のAI入門に載ってる内容を弄っただけだし
CPU版の実装よりクソ重いしと散々だけど動いてくれて嬉しいぜ…。
チラ裏

335 :デフォルトの名無しさん:2008/01/28(月) 09:11:15
ニューラルネットワーク
http://zoomtv.atspace.com/?X&2052226&0607@HiSpeedVision

336 :デフォルトの名無しさん:2008/01/28(月) 10:38:40
上がるか下がるか当てるだけを評価するなら
ぶっちゃけ学習自体も regression じゃなくて classifier で良いような?

337 :デフォルトの名無しさん:2008/01/28(月) 17:19:14
ところで、データの娘の名前が思い出せない。

338 :デフォルトの名無しさん:2008/01/29(火) 01:01:48
>>334
へぇ、そんなのできるんだ。
昔ちょっとだけDirectXいじってたんだけど、どうやってしてるの?
最近のGPUだったらピクセルシェーダーとか使ってるのかな。
もしデバイスのIOを直接叩いてるんだったら、かなりのもんだね。

339 :デフォルトの名無しさん:2008/01/29(火) 08:30:21
shaderだろJK

340 :デフォルトの名無しさん:2008/01/29(火) 09:54:31
GPGPUだね

341 :デフォルトの名無しさん:2008/02/01(金) 16:49:06
ニューラルネットワークのプログラムを組んでみたんですが、バグのせいかどんな入力に対しても同じ値しか返しません
原因としてどのようなことが考えられるか、教えていただけないでしょうか?


342 :デフォルトの名無しさん:2008/02/01(金) 16:52:10
だったらソース晒しなよ

343 :デフォルトの名無しさん:2008/02/01(金) 16:58:38
>>334
CPUより遅かったら意味ないじゃんw
でも、素子数が増加しても並列計算でスピード変わらん!とかあるのかな?

344 :デフォルトの名無しさん:2008/02/01(金) 17:11:43
void back_propagation()
{
int i,j;
double dih[Hneuron],dho[Oneuron]; //誤差
double sum;

for(i=0; i<Oneuron; i++){
dho[i] = signal[i] - oout[i]; //出力層の誤差の計算(出力はシグモイド関数にかけてない)
}

for(i=0; i<Hneuron; i++){ //出力層の重み修正
for(j=0, sum=0; j<Oneuron; j++){
dwho[j][i] = ( Eta * dho[j] * hout[i] ) + ( Alpha * dwho[j][i] );
who[j][i] += dwho[j][i];
sum += ( dho[j] * who[j][i] );
}
dih[i] = hout[i] * ( 1 - hout[i] ) * sum; //中間層の学習信号
}

for(i=0; i<Oneuron; i++){ //出力のしきい値修正
dothreshold[i] = ( Eta * dho[i] ) + ( Alpha * dothreshold[i] );;
othreshold[i] += dothreshold[i];
}


345 :デフォルトの名無しさん:2008/02/01(金) 17:12:35

for(i=0; i<Ineuron; i++){ //中間層の重み修正
for(j=0, sum=0; j<Hneuron; j++){
dwih[j][i] = ( Eta * dih[j] * iout[i] ) + ( Alpha * dwih[j][i] );
wih[j][i] += dwih[j][i];
sum += ( dih[j] * wih[j][i] );
}
}

for(i=0; i<Hneuron; i++){ //中間層のしきい値修正
dhthreshold[i] = ( Eta * dih[i] ) + ( Alpha * dhthreshold[i] );
hthreshold[i] += dhthreshold[i];
}
}

コンパイラはBCCを使ってます。


346 :デフォルトの名無しさん:2008/02/01(金) 17:36:31
>>341
ソースまだ見てないけど、学習後の重みをファイル出力してみて、
全部0とかになってたら、BPの実装ミス。
そうでなかったら、全部同じ出力とかにはならないだろうから、
入出力間の伝搬のミスってことになる。

347 :デフォルトの名無しさん:2008/02/01(金) 19:00:55
重みがそれっぽい感じになってて、出力も学習元のデータからして異常とは言えない数値になってます。

具体的には、
学習させた結果の重みを別のプログラムに読ませて、foward propagationだけを行って予測させる。
その予測された結果を入力の一部として使って、さらに次の予測をさせる
という風にしているのですが、最初の予測結果と2番目以降の予測結果が全く同じになります。


何回学習させても重みが変わらなかったり、1回目だけ変わってその後変わらなかったりするのでback propagationに問題があると思って途中の重みやその変化量を表示させているのですが、原因の見当がつかず困っています。




348 :デフォルトの名無しさん:2008/02/01(金) 20:03:54
>dho[i] = signal[i] - oout[i]; //出力層の誤差の計算(出力はシグモイド関数にかけてない)
そもそもこれが許されてるのかどうか俺は知らんのだが、

>dih[i] = hout[i] * ( 1 - hout[i] ) * sum; //中間層の学習信号
シグモイド通してないなら x*(1-x) が出てくるのはおかしくね?

349 :341:2008/02/01(金) 20:08:23
>>348
中間層の出力はシグモイド関数にかけてるのでそこはあってると思います

350 :デフォルトの名無しさん:2008/02/01(金) 20:47:11
> dwho[j][i] = ( Eta * dho[j] * hout[i] ) + ( Alpha * dwho[j][i] );

dwho[j][i]決めんのにdwho[j][i]使ってるけどこれっていいのかな?
時系列扱わせているみたいだから、前時刻の修正量を重みAlpha反映させたりしてるの?

あと気になるのは、sumに足しこむのがwhoとかの修正前な気がする。
まあ、自分のコードと大分違うんでわからんけど。

多少面倒だが、いきなり目的のデータ使うんじゃなくて、
y = sin(x)のような既知の単純な学習データで検証するのも手かもしれない。


351 :デフォルトの名無しさん:2008/02/02(土) 03:37:33
しきい値に関しては定数入力を用意して重みで実現する方が
プログラムがすっきりするし高速化し易いから定石なんだよね

この実装は普通のとかなり違うからコードだけじゃ分からないねぇ
元の式から書いた方がいいと思われ
元式の微分周りにはミスはない?

352 :341:2008/02/02(土) 23:38:31
すいません。
BPではなく、最初に重みとしきい値を乱数生成する部分の範囲がおかしかったようです。
ご迷惑おかけしました。


353 :デフォルトの名無しさん:2008/02/02(土) 23:40:38
>>323の判別分析をググってみたんだが
これでNNに入力する特徴量を選択をする場合、
あるデータに対して特徴量ごとに判定結果を算出して
その結果をもとに特徴量の有効性を計算するの?
それとももっと正確な指標が数値で出るの?

354 :デフォルトの名無しさん:2008/02/03(日) 20:06:50
>生データから抽出すべき特徴量を決定する指針
の話だったから(分類用なら)判別分析で固有値が大きい方から順に
と思ったのだが.
学習済みの NN の隠れ層に形成された特徴の寄与率を評価するのは
また別の話になると思う
定番というのは知らない(あるのか?)が,
例えばあるニューロンを一個切り離して成績を比べるとか

355 :デフォルトの名無しさん:2008/02/07(木) 14:49:34
今回の卒検でjooneとかいうjavaのニューラルネットワーク・ライブラリを使おうとしてたんだが、
正直失敗した。
がんばって英文を読んだにもかかわらず、使いにくい設計、やる気をそぐスペルミス(cycle->cicle)など、
三日がんばったんだが、結局自作のプログラムに戻した。
そしたらやろうとしてたことが十分ぐらいでできてまた泣いた。

もうこの際みんなでオープンソースのライブラリ作らない?

356 :デフォルトの名無しさん:2008/02/07(木) 15:31:42
面白そうだとは思う。
しかし言いだしっぺが大まかな仕様や実装例を上げないとgdgdになる法則。

357 :デフォルトの名無しさん:2008/02/07(木) 22:27:12
俺はニューラルネットに全然詳しくないのだが、
こういう分野の理論ってライブラリ化できるものなんでしょうか?

俺みたいな詳しくなくてもコンポーネント的に簡単に使えるようになると、
すごく面白そうな悪寒。

358 :デフォルトの名無しさん:2008/02/07(木) 22:45:06
haskellのfgl使ってろや
ニューラルネットとか言っても所詮はグラフ

359 :デフォルトの名無しさん:2008/02/07(木) 23:56:23
日本語でOK

360 :デフォルトの名無しさん:2008/02/08(金) 00:02:15
まだ大学1年生でコンピュータサイエンスは素人同然なのですが、
ニューラルネットって重み付きグラフというものとは違うものなのですか?

361 :デフォルトの名無しさん:2008/02/08(金) 01:01:53
>360
ただの情報(データ)表現の一種であるグラフ(重み付きでも)と
情報処理装置であるニューラルネットをどうやったら混同できるんだ?

362 :デフォルトの名無しさん:2008/02/08(金) 01:09:37
時間という流れるものに犯されすぎ

363 :デフォルトの名無しさん:2008/02/08(金) 01:21:11
え、ぜんぜん関係ないんですか?
ニューラルネットは重み付きグラフで表現できない??

364 :デフォルトの名無しさん:2008/02/08(金) 03:58:44
接続関係だけ表現しても道路地図や路線地図と何も変わらん

365 :デフォルトの名無しさん:2008/02/08(金) 04:26:00
簡約によって副作用が生じる場合と生じない場合で「表現すること」と「計算すること」の同値性が崩れる場合があって,
「表現するだけでは足りないのだよ・・・副作用は表現では現れない」という結論を導きたかった.
具体的に言うと「ニューラルネットワークは重み付グラフで表せますか?」は
「ニューラルネットワークは自身の重みを時間の推移に従って書き換えていく(副作用)があるので,あらわせない」だ.

で,簡約で副作用を容易に持ち込めるlispを使って例を挙げたかったがあきらめた(^p^

重み付き非決定性グラフとかあれば表現可能かも

366 :デフォルトの名無しさん:2008/02/08(金) 04:33:17
>>365
別にそういうアルゴリズムは副作用なくても表現できるんじゃないの。

367 :デフォルトの名無しさん:2008/02/08(金) 04:47:05
だって、NNの推移って、グラフからグラフへの関数を一定時間ごとに呼び出すだけでしょ?

368 :デフォルトの名無しさん:2008/02/08(金) 05:00:35
どうやら「表現」に関して認識の差があるみたいだ

語彙が足らなくてうまく伝えられないから引っ込むぉ

369 :デフォルトの名無しさん:2008/02/08(金) 10:16:18
ニューラルネットにとって時間の推移(時間発展)は
本質的だと思うけどな。
そういう意味で(副作用の無い)関数とは全く異なる。

そう言えば「副作用」って大抵、時間に関係してるな。
「時間」の推移による変化も完全に記述できる「述語論理」が
まだ発明されていないと言うのが大きいのかな?

370 :デフォルトの名無しさん:2008/02/08(金) 10:33:04
>>369
たとえば、Haskellの場合はIOモナドに処理手順を閉じ込めてしまえば、main関数の終了時に順番に実行してくれる。
遅延評価だから、停止しない処理も記述可能。
1ms毎に関数を無限に適用し続けるといった処理も(言語仕様上では)副作用なしに記述可能。

371 :デフォルトの名無しさん:2008/02/08(金) 10:55:17
>>369
たしかに、そうだな。
仕様記述言語のZという言語を研究で使ったことがあるが、たしかに時間に関する記述はできなかった。

372 :デフォルトの名無しさん:2008/02/08(金) 11:15:48
>370
うん。
しかしHaskelの場合であっても時間による副作用を
全てI/O処理(言語仕様の外側)に閉じこめているだけであって、
時間発展(副作用)のある系の記述を無い系の記述に
全て変換してしまえるわけじゃないだろう?

373 :デフォルトの名無しさん:2008/02/08(金) 11:27:57
>>370
時間見てワロタ
お前いつ寝てんの?w

374 :デフォルトの名無しさん:2008/02/08(金) 12:17:46
結論として
「副作用の全く無い関数型言語のみで記述できるアルゴリズムでは
時間発展のある系の完全なコントロールはできない」のだと思う。
コントロールしようとするとどうしても
アルゴリズムの中のどこかで副作用を意識せざるを得ない。

375 :デフォルトの名無しさん:2008/02/08(金) 12:58:42
>367の間違いはニューラルネットの重み付け更新
(NNの推移)はその出力に依存する事を忘れている事だと思う。
即ちNNの機能は処理の時間的順序関係に強く依存している。

376 :デフォルトの名無しさん:2008/02/08(金) 14:24:56
昔々,Prolog で I/O もバックトラックしたら
という話を思い出した

377 :デフォルトの名無しさん:2008/02/08(金) 16:48:58
ちょっと訂正
>375は「NNの推移はその入力に依存する」がより正しいな。
入力がすべて既知とするなら出力は先に計算できるわけだから。
提示される未知の入力に対して(その一部を)記憶し
適応するからこそ時間依存の(時間で発展する)系なわけだ。

378 :デフォルトの名無しさん:2008/02/08(金) 17:58:01
もうひとつ結論
「記憶し、学習し、適応する」=「副作用」

379 :デフォルトの名無しさん:2008/02/08(金) 20:05:32
結局、NNのデータ構造はグラフってことでOK?

380 :デフォルトの名無しさん:2008/02/08(金) 20:35:19
>379
いき値固定でかつ各ニューロンの情報処理(計算)機能を
省略して表現するなら。
また静的な重み付きグラフならある時点での
(データ構造の)スナップショットと言う事になるな。

381 :デフォルトの名無しさん:2008/02/08(金) 20:58:18
それNNじゃないしw

382 :デフォルトの名無しさん:2008/02/08(金) 21:39:53
もちろん静的重み付きグラフはニューラルネットそのものではない。
ただし処理のアルゴリズムとは区分されたデータ構造では有りうる。
条件付きでだが。

383 :360:2008/02/08(金) 21:47:24
ノードのラベルに閾値を割り当てればいいですか?

384 :デフォルトの名無しさん:2008/02/08(金) 22:14:39
>383
純理論的にはそう思うけど。
ただBPとか実装しようと思うと他にもいろんな変数を使う必要が出てくると思う。
各ニューロン毎に保持したり、恒常的に保持する必要は無い変数だろうけど。

385 :360:2008/02/08(金) 22:27:23
>>384
その点は問題ないと思いますよ。
ノードのラベルの型を代数的データ型にするか、ペアで表現すればよいと思います。

386 :デフォルトの名無しさん:2008/02/09(土) 19:08:28
学習によって全体的な誤差を小さくしていくと、最大の誤差は逆に増えていくのですが
この問題を解決する手法って何かありませんか?


387 :デフォルトの名無しさん:2008/02/09(土) 20:16:45
全体的な誤差って何? 最大の誤差って何?
解決って具体的にどういうこと?

388 :デフォルトの名無しさん:2008/02/10(日) 14:44:32
総誤差関数の値が小さくなるように学習を続けると
特定の入力バターン(誤差が最大のもの)に対する誤差が
逆に大きくなると言う事でしょう。

その入力だけ元々パターンから外れている
(ノイズが乗っている)て事は無いのかな?

389 :デフォルトの名無しさん:2008/02/10(日) 15:14:01
解決したいってのが,
それも含めてフィットさせたい
ってことなら考え直した方がいい

390 :デフォルトの名無しさん:2008/03/06(木) 23:30:51
ちょっと前にGPU(GPGPU?)使ってNN動かしたって人がいたけど、
世間的にもそういう動きがあるみたいだね。

GPGPUのキラーアプリケーションは「グラフィックス」 − @IT
http://www.atmarkit.co.jp/news/200803/06/cuda.html

早めにフレームワークでも一つ作っておけば広く普及するかも。

391 :デフォルトの名無しさん:2008/03/08(土) 20:36:24
ニューラルネットを使った株価予想って具体的にどうやってるんですか?

392 :デフォルトの名無しさん:2008/03/08(土) 21:03:05
現在から過去何単位時間かの株価の推移の情報を入力し、次の単位時間での株価を出力

393 :デフォルトの名無しさん:2008/03/08(土) 22:46:50
>392
なるほど、ありがとうございましたm(_ _)m

394 :デフォルトの名無しさん:2008/03/10(月) 05:18:37
>>392

随分といい加減なwww


395 :デフォルトの名無しさん:2008/03/10(月) 20:18:38
>391
共立の「ニューラルネットの基礎と応用」と言う本に「株価予測への応用」
と言う節があって、ほんの10ページくらいだが著者の一人(馬場則夫氏)が
作ったシステムが紹介されている。

それによると入力変数は
X1:前日の終値 X2:前日の変化 X3:昨日の出来高/1週間前の出来高平均
x4:昨日の出来高/先月の出来高平均 X5:出来高変化 X6:今年の最高値- 前日の終値 
X7:(前日の終値 - 3年前までの最安値)/(3年前までの最高値-3年前までの最安値)
X8:50-PER X9:株主資本変化 X10:一株益変動 X11:株価変動 X12:円ドルレート変動
X13:1ヶ月後の増資予想 X14:ダウ平均の変動 X15:公定歩合

の15。後、2出力(上がるか下がるか)、隠れ層は2層だそうな。

内容については良く分からないので自分で本か論文に当たってくれ。

396 :デフォルトの名無しさん:2008/03/10(月) 22:03:12
この手のシステムは本当に使い物になったら秘密にされるので
最先端は公開されないことに注意
まぁまだ実用には程遠いと思うけど

397 :デフォルトの名無しさん:2008/03/10(月) 22:11:08
と言うか誰でも簡単にそのまま真似できるほど詳しい内容は普通、公開されないよ。
だが飽くまで研究目的の参考にしたいと言うなら先行研究がいろいろあるはず。

本当に物にしたければ自分で研究するしか無いだろう。

398 :デフォルトの名無しさん:2008/03/12(水) 01:13:50
ニューラルネットの素人目に見てだけど・・・

>>395
どうモデルにするかで全然違ってきそうですね。
どこに注目するか?というか。

399 :デフォルトの名無しさん:2008/03/12(水) 01:42:37
>398
現状のような外部要因でひどくグラグラ振れるような市況だと
何年も前に作ったシステムはもはや通用しなさそうだね。

円ドルレートだけじゃなくサブプライムがどうしたとか、
モノラインも危ないとか原油1バレル何ドルになったとか
いろいろな事を加味しないととてもまともな予測にならない
ような気がする。

400 :デフォルトの名無しさん:2008/03/12(水) 03:57:58
俺も株価予測の真似事してたけど、結局そこなんだよな。
影響範囲が広域すぎて、正攻法で学習させようとすると重み係数が多くなり過ぎちゃう。
多分NNの多段化やGA組み合わせればちょっとはマシになるんだろうけど、
基礎研ではそこまでできんかった。

401 :デフォルトの名無しさん:2008/03/12(水) 13:19:28
FRBの議長の失言とかもあるしなぁ

402 :デフォルトの名無しさん:2008/03/12(水) 18:53:07
考慮すべき要因が多すぎるし、影響力も定量的には計れない。
NNだけで扱いきるのはむりぽ。
NNとは別に、その辺の事象を十分に少ない特徴量で表現する研究の方が重要じゃね?

403 :デフォルトの名無しさん:2008/03/13(木) 18:58:19
意味のある特徴量をGAとかで検出できたらいいかも

404 :デフォルトの名無しさん:2008/03/14(金) 05:53:51
>GAとかで検出
GAが何か分かって言ってる?
PCAやAIC辺りなら兎も角

405 :デフォルトの名無しさん:2008/03/14(金) 19:35:33
>>395
素人目でみてなので 突っ込み希望なのですが、
>>395みたいなのって、結局のところ、
多数のパラメーターからニューラルネットで最適値を見つけるように見えます。
そうすると(株でも先物でもいいのですが)システムトレード的には、
パラメータが多くなればなるほど、
過度の最適化というか、カーブフィッティングのようになってしまい、
未来の予測(といっていいかわかりませんが・・・)をするには不適ではないかと思えてなりません。
これは、モデル化の方法などでカバーできる問題なのでしょうか?

406 :デフォルトの名無しさん:2008/03/15(土) 11:27:13
入出力が実数とは限らない
機能を入出力とすると ほ〜ら

407 :デフォルトの名無しさん:2008/03/16(日) 09:05:55
誰かSSE,MMX,デゥアルコアに完全対応していて
なおかつ入力出力サイズが可変出来て状態保存の可能な
NNのWindows Cライブラリを作ってくれまいかね
いやもちろん細部はアセンブラで超高速なわけですが

408 :デフォルトの名無しさん:2008/03/16(日) 13:34:29
>>407
仕様とアルゴリズムを決めてくれたら作ってもいいけど。

409 :デフォルトの名無しさん:2008/03/16(日) 19:19:37
アルゴリズムは教師信号を持ったバックプロバケーション
構造は選択式
単位データは32bit整数

必要なメモリを確保する関数
・入力信号の配列数
・出力信号の配列数
を指定すると確保したメモリのポインタを返す

教師信号配列を渡す関数
学習する関数(同期型と非同期型)
実行する関数(学習したものを利用するだけ、同期型と非同期型)
非同期用コールバック
学習情報を取得する関数

ファイルの保存はあっても無くても良い
あるなら圧縮保存出来ると良い

ハードウェアアクセラレータは自動検出し最適なコードを実行する

こんなんでどうでしょう?

410 :デフォルトの名無しさん:2008/03/17(月) 11:53:49
>>409
>教師信号を持ったバックプロバケーション

このあたり、もう少し具体的に書いてくれ。
詳細な説明のあるサイトへのリンクでもいいし、サンプルコードでもいい。

当方最適化は得意だが、NNの知識が足らないので。

411 :デフォルトの名無しさん:2008/03/18(火) 01:54:02
いろいろ調べてたらGPGPUのほうが早いらしいので却下w

412 :デフォルトの名無しさん:2008/03/18(火) 22:14:51
Cellも早いらしいぞ

413 :デフォルトの名無しさん:2008/03/19(水) 02:14:41
俺の方が早い

414 :デフォルトの名無しさん:2008/03/19(水) 19:17:59
Cell B.E.でニューラルネットワークを実装した研究例ってあったっけ?

Cell&Neural Networkで検索してもCellular Neural Networkとか
細胞の方のCellとニューラルネットワーク関連の話しか出てこない。

415 :デフォルトの名無しさん:2008/03/20(木) 08:02:36
お前らちょっと聞きますよ
バックプロパで重みをランダム修正するじゃない
すべてのパターンで正常な結果が出たら完了じゃない
これって古い学習結果をある程度保持したまま
随時新しいパターンを学習していくって方法はないのけ?
画像認識だとものすごい量の学習サンプルが一度に必要になるじゃない
随時で学習できればいいのにと思うのです
そういうアルゴリズムってあるのですかね?

416 :デフォルトの名無しさん:2008/03/20(木) 12:57:44
多峰性とか局所最適解とか考えた上での発言・・・とは思えない

417 :デフォルトの名無しさん:2008/03/20(木) 15:06:23
>415
BPで入力パターンが来る毎に少しずつ学習させていく手法は可能だし、
普通にあるよ。

参考:
ttp://matrix.cs.ce.nihon-u.ac.jp/~matsui/research/bp/bp.html
ttp://www.twcu.ac.jp/~asakawa/waseda2002/bp.pdf

ただ、いつまでも学習させてると上の人も言ってるように
局所解とか過学習(般化能力の欠如)が問題になってくる。

418 :デフォルトの名無しさん:2008/03/20(木) 22:11:26
>>414
去年、サクシスって学会で賞をもらってた人がやってたような気がする

419 :デフォルトの名無しさん:2008/03/22(土) 00:20:30
>>416
ペッ

>>417
ありがとう、そういうことです
過学習かどうかの判断は結局プログラム的には無理だから
人為的に止めることは考えてますとも

420 :デフォルトの名無しさん:2008/03/22(土) 01:46:34
ニューラルネットって懐かしいな
その昔、甘利さんの本に二足歩行の最適化てのがあって憧れたんだが
今思うと嘘臭いよな。現実的な時間で収束すると思えないし
二足の自律歩行モデルなんて当時はロボティクスの人でも出来てないだろ

421 :デフォルトの名無しさん:2008/03/25(火) 18:46:13
>420
反論したいんだが、何らかの根拠を示した反論ができない。

ちなみに二足歩行ではどうか知らないが、倒立振り子を
ニューラルネットでうまく制御したと言う研究をかなり
昔にTV番組か何かで見たな。

傾き具合をカメラで検出しながらレールの上で台車を
左右に動かして制御する方式だったと思う。
(二足歩行よりはるかに簡単だったとは思うが)

422 :デフォルトの名無しさん:2008/03/25(火) 19:16:44
確かに倒立振子だと出来そうだけど、どう考えても解析的に解いたほうが良さそう
他の手法よりもニューラルネットが最も適するような問題って何かあるんだろうか
それが見つからない&学術的につまんない->飽きられる->予算取れない->今に至る。で、あってる?

423 :デフォルトの名無しさん:2008/03/26(水) 01:08:27
>422
倒立振り子のてっぺんに腕を付けてさらにその両端に小さな振り子を
付けたりしたら(つまりカオス振り子に仕立てたら)解析的に解いて
制御する事はもはやできんだろう。

ニューラルネットでうまく制御できるかどうか、やってみないと
分からないし、そんな事に何の意味があるのかと問われると困るが。

424 :デフォルトの名無しさん:2008/03/26(水) 02:51:33
解析的に解かなくても制御できるのがNNの利点なのだが
例えば人間の腕なんて解析しようにも必要なパラメタの測定が大変だし
一回測定してもどんどん変化しちゃうわけで


425 :デフォルトの名無しさん:2008/03/26(水) 11:33:45
人間の腕なんて解析して何に使うんだよ

426 :デフォルトの名無しさん:2008/03/26(水) 13:23:32
>425
高度な義手あるいはロボットアームの開発

427 :デフォルトの名無しさん:2008/03/26(水) 19:20:50
パラメタを測定してモデル化というのはバイオメカニクス的手法なんだろうが
それならニューラルネットを利用できるかも知れない
やっぱりそれが最適とは思わんけど

運動学・動力学的な束縛を解く手法はここ10年程で物凄く進んでいる
わざわざ不安材料の多いニューラルネットを導入する必要はないはず
倒立振子も3段の制御に成功したというのをどこかで見たがソース失念

428 :デフォルトの名無しさん:2008/03/26(水) 20:57:47
例えば家庭用あるいは介護用ロボットで物を扱う場合
対象の質量やモーメントを事前に測定しておくことはできない
こういう物に対応させるには何らかのadaptiveな手法が必要
その一要素としてNNを使うのが現代的
NNだけでやれることは非常に限られるし

429 :デフォルトの名無しさん:2008/03/26(水) 21:41:30
高次元でグニャグニャ曲がった未知関数を近似したいと言う時、
バックプロパゲーション型のニューラルネットは有用だと思う。

特定の応用にどんなものがあるのかは良く知らんが。

430 :デフォルトの名無しさん:2008/03/26(水) 22:43:48
>>428
学習したカテゴリに属さないお婆ちゃん(ってどんなのかは知らんけど)は放り投げられたりして。
まあ冗談だけど。
>>429は何か応用例があったら知りたい。
それでも解析的に解けない問題には数値演算(反復解法)があるし
ニューラルネットとは違って計算を打ち切った時点なりの精度は得られる。

431 :デフォルトの名無しさん:2008/03/26(水) 23:06:11
>430
数値演算で解くためにはともかく方程式を立てる必要があるでしょう?
微分方程式なり何なりの形で。

対象にしているシステムの性質に未知な部分が多くて、その方程式
自体が立てられないと言うような状況にニューラルネットは有用。
関数近似器になると言うのはそういう意味。

いったん近似できたら後はその極大値(極小値)を探すと言うような応用。

432 :デフォルトの名無しさん:2008/03/26(水) 23:49:09
対象となるシステムをじっくり観察して、それを単純で理解可能な
部品にまで分解し、次にそれら部品同士の関係を方程式で記述して
システム全体を表現しようと言う(特に物理学などに)伝統的な
考え方がある。

いわゆるデカルトの還元主義。

それと正反対に内部の仕組みは良く分からないが、そのシステムの
入出力関係に着目してその動作を真似しようとか予測しようとか言う
考え方に立ってるのがニューラルネットその他の学習機械だと思う。

433 :デフォルトの名無しさん:2008/03/26(水) 23:57:34
あ、把握しました。ありがとう。
>>420
これって共著が出村先生じゃないか。
それだったら出来たかも知れんね・・・

434 :デフォルトの名無しさん:2008/03/27(木) 00:22:32
私は読んだ事無いけど「脳とニューラルネット」って本の事を言ってる?

435 :デフォルトの名無しさん:2008/03/27(木) 00:33:54
ググったらそれが出てきたんだが、題名は覚えてないんだわ。
時期的には多分。

436 :デフォルトの名無しさん:2008/03/28(金) 05:38:16
実際近似になってるのかね?
単なるハッシュデータベースと同じようなものの気がする
それはそれで応用範囲はあるわけだけど
そこんところが発展の妨げになってるな
NNはただの情報蓄積装置だと考えると今応用されてるものが当然の結果だと分かるし
それ以上が不可能だということも了解出来るだろ

437 :デフォルトの名無しさん:2008/03/28(金) 05:43:53
人間の脳は固定長じゃないんだよ
特定の作業を繰り返して情報量が増えると自動的に別の部位を加えるようになってる
目が見えない人は音声解析能力が飛躍的に上昇するのは目に使っていた領域を
耳に置き換えたからだ
NNはそういうことを前提にしてないでしょ
コンピューターでNNの領域を増やして安定させるってのは難しいだろうので
単純化するには単純に自動膨張タイプのマルコフ連鎖データベースにするのがいいだろう

438 :デフォルトの名無しさん:2008/03/28(金) 05:46:02
ただマルコフだと近似算出に膨大な計算が必要になるんだよな


439 :デフォルトの名無しさん:2008/03/28(金) 21:47:10
>436
どういう応用形態を前提に考えてるのか良く分からんが、
単なる(ハッシュでもなんでも)データベースなら訓練用データに
存在しない無いポイントの値を参照しようとしても不可能だろ?

ニューラルネット(あるいは他の関数近似手法)なら
データに無い途中や端にあるポイントの値も答えてくれる。
いわゆる般化能力。

440 :デフォルトの名無しさん:2008/03/29(土) 00:08:35
>437
>217で紹介されてるが「自己増殖型ニューラルネットワーク」
なんて物も考えられているらしい。
どういう物かあまり良くは知らないが、必要な箇所のニューロンを
増やして(増殖して)学習、識別能力を上げようと言う試みのようだ。

441 :デフォルトの名無しさん:2008/03/29(土) 00:10:25
間違えてアゲちまった、スマソ。

442 :デフォルトの名無しさん:2008/03/29(土) 03:21:37
こう考えると分かりやすい
特定の文字列を与えるとSHA-1ハッシュを吐くNNを組んだら
確かにそれは実用的で実行速度はまじめに計算するより早い
記憶に無いデータも学習した計算方法からなんとなく答えを出す
それ以上でもそれ以下でもなくただのハッシュ関数なんだよ
実用的な速度で動くし答えは適当だけどそこそこの正解率はある
途中の計算を省略したハッシュ関数みたいなもんだ

443 :デフォルトの名無しさん:2008/03/29(土) 04:04:50
そこそこ正解率あるのかなぁ
あればあんまりいいハッシュ関数とは言えないような気も
ちょっと気になり始めた

444 :デフォルトの名無しさん:2008/03/29(土) 08:40:00
>442
オイオイ、そりゃニューラルネットをハッシュ値の
生成に使えばある種のハッシュ関数だろうさ。
だからと言ってニューラルネットを単なる
ハッシュ関数の一種に過ぎないと言うのは暴論だろ?

例えば普通のハッシュ関数で連想記憶やパターン認識を
実現できるかい?
それともデータの類似度を定義してそれを表現するような
特殊なハッシュ関数を想定してるのかな?

445 :デフォルトの名無しさん:2008/03/29(土) 09:14:37
ちなみに(言うまでもない事だが)
ニューラルネットが関数近似器としてその実用性を
発揮するのは元となる関数が「未知」の場合だよ。

つまり入力データと出力データのセットのみ
与えられていて、その関係は不明な場合だ。
(そのような現象は現実に山のように存在する)

最初から関係が既知であるのなら
その関数を使えば良いだけなのだから。

446 :デフォルトの名無しさん:2008/03/29(土) 12:29:27
とりあえずfirst class objectって何なのか考えるといいよ

447 :デフォルトの名無しさん:2008/03/29(土) 13:44:25
>446
何でプログラム言語の話が唐突に? 誤爆?

448 :デフォルトの名無しさん:2008/03/29(土) 17:30:58
>>445
まさにその通り
関数が未知の場合にだけちょっとだけ役に立つ「アルゴリズム」の一種でしかない
もっとわかりやすく考えよう
SHA-1からキーを解読するNNを組んだとしよう
むちゃくちゃ早いが正解率は低いw
一時しのぎの解決手段だな

449 :デフォルトの名無しさん:2008/03/29(土) 17:34:40
正確な解答を得るにはマルコフの統計をとるのが一番良い
ただこれは情報量がすさまじいことになる
最近のPCは大容量なんである程度はいけるだろう
問題は近似算出だな
大量にあるデータから一番近い2ペアを探しだしてその中間値を返す
この計算量がばかでかい

450 :デフォルトの名無しさん:2008/03/29(土) 17:35:59
簡単に言えばだ
SHA-1の解読処理をしようと思ったら
SHA-1ハッシュとキーのペアデータベースを作るのが一番早いし正確だろ?

451 :デフォルトの名無しさん:2008/03/29(土) 18:17:38
何でSHA-1ハッシュの解読処理にこだわってるんだ?
そういう厳密性を要求される処理にニューラルネットが
向いているとは始めから思えないし。

452 :デフォルトの名無しさん:2008/03/29(土) 18:19:22
誰もこだわってないよ?

453 :デフォルトの名無しさん:2008/03/29(土) 18:23:48
じゃあ、ニューラルネットの適用課題としてはそもそも不適切。
(始めから向いていない応用)

454 :デフォルトの名無しさん:2008/03/29(土) 18:31:24
ハッシュテーブルになぞらえるとは...パッチワークが正解だろ
あとill-posedな問題にも使えるという利点もある

455 :デフォルトの名無しさん:2008/03/29(土) 18:46:29
>454
ill-posedな問題って何かと思ったら逆問題の事か。
で、「パッチワーク」ってどんな応用の事?

456 :デフォルトの名無しさん:2008/03/29(土) 19:05:24
もしかすると電子透かしの話かな?

457 :デフォルトの名無しさん:2008/03/29(土) 23:09:54
データマイニングや統計解析で使われているって本に書いてあったけど本当?


458 :デフォルトの名無しさん:2008/03/30(日) 00:41:36
>>453
それが何か?
そんな事はわかった上で話してるんだよ。

459 :デフォルトの名無しさん:2008/03/30(日) 01:34:32
(話が低レベルだなぁ・・・)

460 :デフォルトの名無しさん:2008/03/30(日) 02:57:44
(・∀・)クスクス

461 :デフォルトの名無しさん:2008/03/30(日) 14:46:25
ああ、有袋類の猿みたいな生き物。

462 :デフォルトの名無しさん:2008/03/30(日) 18:04:51
Ill-posedは不良設定問題
拘束条件が自由度より少なくて解が一意に決まらない(から解析的に解けない)
しかしill-posedって言葉を知らないってことはNNの事を全然勉強してないんだな

463 :デフォルトの名無しさん:2008/03/30(日) 20:17:43
>462
Thanks.
ニューラルネットの事は確かに大して勉強してないが、
俺の持ってる(唯一読んでる)ちょっと古い本には
"ill-posed"なんて用語は載ってないんだよ、
"逆問題"なら載ってるが(洋書じゃないし)。
(大学等で真剣に勉強した人にはとても適わないぜ)

ところで誰か、"Practical Neural Network Recipes in C++"
と言う本持ってる人(or 読んだ事のある人)居る?
いろんなニューラルネットのプログラム例が載ってるらしい
のだが分かりやすいかな?

本屋で偶々「ゲーム開発者のためのAI入門」と言う本を見かけたので
読んでみたらニューラルネットのプログラミングの参考文献として
薦められてた。

日本語の本でニューラルネットプログラミングの参考書は
ほとんど無いよね。「Cでつくるニューラルネットワーク」は
かなり古いし(プログラム例がNEC98シリーズのDOS前提)

464 :デフォルトの名無しさん:2008/04/01(火) 13:51:32
ニューラルネットワークって巷で数十年前から噂のエージェント指向もカバーしている?

465 :デフォルトの名無しさん:2008/04/01(火) 15:02:14
>>464
エージェント指向なんて言葉は一部の人間(大したことないのに特別な名前を付けて特別な技術として売りたい人間)
しか使っていないと思うが、意味している技術なら既に一般的に使われてるよ。

466 :デフォルトの名無しさん:2008/04/01(火) 15:10:16
そういう意味ではニューラルネットワークも大したことないな

467 :デフォルトの名無しさん:2008/04/01(火) 15:20:46
ああ、それからエージェント指向とニューラルネットは全くの別物。

468 :デフォルトの名無しさん:2008/04/01(火) 15:36:08
>464
アクターモデル、マルチエージェントシステム、ソフトウェアエージェント
などの見出しで(日本語の)ウィキペディアに解説があるよ。

それらを読む限りではニューラルネットとは直接的には何の関係も無いと思う。
(エージェントに自律性を与える手段としてはあり得るのかも知れないが)

>466
意味が分からん。

469 :デフォルトの名無しさん:2008/04/01(火) 15:36:23
>464
アクターモデル、マルチエージェントシステム、ソフトウェアエージェント
などの見出しで(日本語の)ウィキペディアに解説があるよ。

それらを読む限りではニューラルネットとは直接的には何の関係も無いと思う。
(エージェントに自律性を与える手段としてはあり得るのかも知れないが)

>466
意味が分からん。

470 :469:2008/04/01(火) 15:37:40
いかん、二重カキコしちまった。
スマソ!

471 :デフォルトの名無しさん:2008/04/01(火) 15:44:02
エージェント指向って言葉は4,5年前にちょこっと見かけたっきり最近は全く見なくなったね。

472 :エージェント指向:2008/04/01(火) 15:48:14
みんなありがとう

確かにニューラルネットは意思決定とか行動決定の段階で使われる感じだったな
エージェント指向はオブジェクト指向以上にわからんが,エージェント指向プログラミングならわかる人間でした

473 :デフォルトの名無しさん:2008/04/01(火) 16:12:42
1980年代の論文にAIとか人工知能とかファジーとかいう言葉が書かれてあると自分まで恥ずかしくなってくる。

474 :デフォルトの名無しさん:2008/04/01(火) 23:40:36
それでも理系はまだマシだよ・・・
査読をかいくぐってポストと予算を獲得するのがプロの学者なんだろうな
頭のいい人間が衒学的なことをするんだから性質が悪い

475 :デフォルトの名無しさん:2008/04/01(火) 23:46:26
俺の事か

476 :デフォルトの名無しさん:2008/04/02(水) 00:17:02
とゲーテ言い

477 :デフォルトの名無しさん:2008/04/02(水) 01:17:10
>473
誰だって自分の書いた論文を後から読み直すと恥ずかしくなってくると思うが。
そういう羞恥心をある意味捨て去って(あるいは本当に偉大な研究をしてると
舞い上がって)論文を書き続けられないと職業的研究者になんかなれないのだ
と思う。(俺は憧れだけ持ってて成れなかった口だが)

最近、一番自戒してるのは「こんな事は誰でも思いつくだろう」とか
「こんな研究は誰か既に実行していて成功/失敗してるだろう」と
勝手に決め込んで自分のアイデアを簡単に捨ててしまう事。

478 :デフォルトの名無しさん:2008/04/02(水) 02:37:48
確かに何気無く追求してみたら世界一や世界初だったって事はあるな。

479 :デフォルトの名無しさん:2008/04/02(水) 03:52:08
俺も経験あるわ。

480 :デフォルトの名無しさん:2008/04/02(水) 08:19:22


481 :デフォルトの名無しさん:2008/04/02(水) 14:49:26


482 :デフォルトの名無しさん:2008/04/03(木) 02:37:17
研究者畑ってそういう妄想に襲われるんだ・・・・なるほど

483 :デフォルトの名無しさん:2008/04/03(木) 02:43:48
いや、マジで狭い世界では世界一になるのは簡単だからね。

484 :デフォルトの名無しさん:2008/04/03(木) 04:21:44
うん

485 :デフォルトの名無しさん:2008/04/03(木) 14:04:08


なんだ愚痴の書き込みスレになってるな。
日記じゃないんだからw

486 :デフォルトの名無しさん:2008/04/03(木) 14:10:11
便所の落書きに日記を書いて何がわるい

487 :デフォルトの名無しさん:2008/04/03(木) 16:27:21
何らかの意味で世界一あるいは世界初の研究を
ものにしない限り、博士号なんか取れないよね。
もちろん狭〜い範囲に限られた世界一が
ほとんどなわけだが。

488 :デフォルトの名無しさん:2008/04/04(金) 00:40:37
ところで複素ニューラルネットワークって何が嬉しいんだろう?
普通の(実数型)NNよりパラメータ数の割に能力が高いとしたら
それはなぜなんだろうか?

489 :デフォルトの名無しさん:2008/04/04(金) 17:25:55
>>488
興味深いですね。学生でもない素人ですが、
NNの肝は複雑さだと直観的に思えるので、
複素数を用いた方が複雑さが増していい結果を
もたらすのではと思ってます。そもそも
学習したNNがなぜ知能があるように振る舞う
のかということすらわかっていないわけで、
錬金術のごとく、ひたすらこねくり回すことが
大事なんじゃないかなと。

490 :デフォルトの名無しさん:2008/04/06(日) 01:35:16
>学習したNNがなぜ知能があるように振る舞う
寡聞にして初耳だが

491 :デフォルトの名無しさん:2008/04/06(日) 01:52:30
そっか

492 :デフォルトの名無しさん:2008/04/06(日) 05:18:55
知能の定義によりますね。

493 :デフォルトの名無しさん:2008/04/06(日) 05:45:52
「ように」ってのでどこまで許容するかにもよるな

494 :デフォルトの名無しさん:2008/04/06(日) 15:33:58
細胞性粘菌の振る舞いに知能があるように感じるかどうかも問題だな。
全体にベターッと広がってから最短経路に集まる様子には知性を感じない。

495 :デフォルトの名無しさん:2008/04/06(日) 23:05:26
>>494
俺は489の書き込みにも知能は感じない

496 :デフォルトの名無しさん:2008/04/07(月) 02:50:39
そもそも知能とは何なのか。

497 :デフォルトの名無しさん:2008/04/07(月) 13:27:32
知能があるようにってのは

最初に意図してプログラムしていたのと違う結果を出す
ってことだべ。

498 :デフォルトの名無しさん:2008/04/07(月) 13:46:57
知能とは何かなんて、知能なんて言葉を使わなければ考えなくていいよ。
だから、最近は論文に人工知能なんてタイトルを付ける人がいなくなったんだろ。

499 :デフォルトの名無しさん:2008/04/07(月) 17:58:53
自分の書いたプログラムが意図と異なる結果を出力したらそれが知能です。

500 :デフォルトの名無しさん:2008/04/07(月) 20:39:25
それなんてバグ?

501 :デフォルトの名無しさん:2008/04/07(月) 20:53:22
>>488
NNの節の数が増えるのと同じ効果が得られるだけじゃなかろうか?

502 :デフォルトの名無しさん:2008/04/08(火) 02:10:40
情報科学や工学的利用価値にしか関心のない
人からしたら知能なんてことを哲学的、科学的に
追求する必要ありませんからね。

>>501
よければそういう考察に至った経緯を教えて
ください。

503 :デフォルトの名無しさん:2008/04/08(火) 13:06:03
>501
それだと複素ニューラルネットワークに
特別な有り難みは何も無いと言う事になるね。

節を増やしたのと同じ効果しか得られないのなら。

504 :デフォルトの名無しさん:2008/04/08(火) 13:28:25
複素じゃなくても入力値又は出力値をを或る関数に通せばNN段階で学習する関数の形が簡単になって
汎化能力や精度がよくなる事があるのと同じ原理ではないかと予想

505 :デフォルトの名無しさん:2008/04/10(木) 11:54:29
NNの節数を2倍にすると複素ニューラルネットワークと同等のものは構築できる
複素数を使うこと=制約条件 になってるからその辺になにかいい事があるのかな?

506 :デフォルトの名無しさん:2008/04/11(金) 02:45:59
構築できるっていう根拠あるの?
先行研究なんかの論文があれば教えて欲しい

507 :デフォルトの名無しさん:2008/04/11(金) 06:09:00
>506
二つの実数(実数のペア)に特定の演算ルール
(演算ルールに対する制約条件)を課したものが
すなわち複素数。

複素ニューラルネットワークもまた同じ。

508 :デフォルトの名無しさん:2008/04/12(土) 01:22:08
>>507
ノード数が倍になることと関係ないね

509 :デフォルトの名無しさん:2008/04/12(土) 01:42:06
>>508
iを虚数単位とする

複素NN
節α (x1+y1*i)
節β (x2+y2*i)
α→β (a+b*i)
であるとき
β=(x1*a-y1*b)+(x1*b+y1*a)*i
x2=x1*a-y1*b
y2=x1*b+y1*a

NN
節A x1
節B y1
節C x2
節D y2
A→C a
A→D b
B→C -b
B→D a
であるとき
C=x2=x1*a-y1*b
D=y2=x1*b+y1*a

510 :デフォルトの名無しさん:2008/04/12(土) 13:26:17
>508
複素ニューラルネットワークがどんなものかまず調べなよ。
ググればたくさん見つかるよ。

http://www.kki.yamanashi.ac.jp/~masaki/koba_lab/complex.html
など。

511 :デフォルトの名無しさん:2008/04/12(土) 14:19:21
なるほど。

512 :デフォルトの名無しさん:2008/04/14(月) 12:04:00
ニューラルネットの基本的なことを質問させてください。

ニューラルネットとは、組み合わせが多すぎて到底
総当たりでは評価しきれない複数のパラメータがあるシステムの
中の最適なものを算出する手法

ということであっていますでしょうか?

何がいいたいかといいますと、株、先物のデータ分析(というか予想)
に使っている人をみかけたのですが、
パラメータをたくさん用意して、最適解求めるのだと
過度の最適化(カーブフィッティング)にしかならないのでは?と思っています。

513 :デフォルトの名無しさん:2008/04/14(月) 13:11:32
あっていません

514 :デフォルトの名無しさん:2008/04/14(月) 14:56:48
>過度の最適化(カーブフィッティング)にしかならないのでは?と思っています。
これは、学習方法をどうするかにかかっているんだな
カーブフィッティングさせるように学習させれば、そうなるし
そうならないように工夫すれば、またそうなる。
学習とはそもそも何かと考えるハメになるのだ。

515 :デフォルトの名無しさん:2008/04/15(火) 02:15:40
>514
過度の最適化に陥っているかどうかの判定は結局、新しい(未学習の)
データを持ってきて評価させてみるしか無いのかね?

516 :デフォルトの名無しさん:2008/04/15(火) 06:46:55
まずは「過度の最適化」を定義してみてくれ
そうすれば判定方法も自ずと明らかになるだろ

517 :デフォルトの名無しさん:2008/04/15(火) 07:01:56
過学習でググレよ。

518 :デフォルトの名無しさん:2008/04/15(火) 13:54:47
>>515
もしそうすると、再びその「未学習」のデータに対して過度の最適化を始めるだけかと
それもちょっと非効率なね、だから学習とは何かを考える必要がでてくると。

519 :デフォルトの名無しさん:2008/04/15(火) 15:06:27
そのための cross validation だろ……jk

520 :デフォルトの名無しさん:2008/04/15(火) 15:21:59
cross validation とは何をするものかという事をよく考えてみると、自滅していることに気づけるよ。

521 :デフォルトの名無しさん:2008/04/15(火) 15:31:10
カーブフィッティングの問題は、ニューラルネットワークというよりはノンパラメトリック解析の難しさが表面化しているというのが実態かもしれない
そうなるとちょっとスレ違い気味だね。

522 :512:2008/04/18(金) 01:04:24
レスありがとう。

ニューラルネットワークは全然詳しくないのでついていけないのですが、
ニューラルのキーが学習ならば、過学習がカギっぽいですね。

つきつめるとニューラルとは違う方面になっちゃうのかな?

cross validation は、ぐぐってみたのですが、
株とか先物だと既存のデータを、推定と検証用に分けて検証するってことかな?
システムトレードで言うバックテストデータと、フォワードテストデータをわけるということかな。

523 :デフォルトの名無しさん:2008/04/18(金) 12:24:05
>>518
日本の品格を著しく下げている在日チョンや
在日チャンコロの排斥が必要なのは言うまでもないでしょう。
まずは東京から。石原閣下に期待です。
前述した残業代を要求して裁判を起こしたりしているのも、
ほとんどはその手の輩ですしね。
日本の国際競争力を低下させようと工作しているんでしょう。

524 :デフォルトの名無しさん:2008/04/18(金) 16:34:03
>523
凄い誤爆だな。

525 :デフォルトの名無しさん:2008/04/18(金) 17:42:54
>>523
石原?冗談じゃねぇよ、あの財政破綻野郎
新銀行東京の責任とらせて全財産没収にしろ
小泉復活キボンネ

526 :デフォルトの名無しさん:2008/04/21(月) 00:48:52
財政破綻野郎ってw
破綻してたのをここまで回復させたのが石原だろ
美濃部とか青島とかのダメダメ都知事を知らんのか

527 :デフォルトの名無しさん:2008/04/24(木) 08:18:13
入力層から隠れ層への重みの大きな入力が重要な入力と言うことになるんでしょうか?


528 :デフォルトの名無しさん:2008/04/27(日) 17:55:55
ちょっと話題がそれるかもしれないけど

今日は天気が悪い
今日は非常に天気が良い

という2つの項目がDBにあったとします
「今日は天気が良い」で検索した場合後者のほうが一致率が高いわけですが
これを抽出するSQL文は書けますか?
テーブル構成は自由に設計してもらってかまいません
単語毎に項目を分割格納してもいいです

529 :デフォルトの名無しさん:2008/04/27(日) 21:08:00
>>528
>後者のほうが一致率が高いわけですが
こういうことは「一致率」の定義をしていないから言えないんだよ。

530 :デフォルトの名無しさん:2008/04/28(月) 01:54:11
>>527
そういう考え方もあるけど
「重要な入力」をどう定義するかが問題で,
一般には「ある出力」に対する影響が大きなものだから
影響をきちんと計算すべき(非線型だから定数にはならない)

531 :デフォルトの名無しさん:2008/04/28(月) 09:08:51
>>529
この場合の一致率は一致する文字の数です
多くて余った分は無視
短い方の文の文字すべてが存在する場合は完全一致と判断します

532 :デフォルトの名無しさん:2008/04/29(火) 03:36:27
これは何かのクイズですか?

SQLでは難しいけど、NNならできます、というオチですか?



533 :デフォルトの名無しさん:2008/04/30(水) 00:46:33
>>531
それNNの使いどころが無いよ

534 :デフォルトの名無しさん:2008/05/01(木) 16:20:58
ついにやったぞ!
この技術は今のコンピュータを本質的に変えるかも知れない。

http://wiredvision.jp/news/200805/2008050123.html

535 :デフォルトの名無しさん:2008/05/02(金) 18:25:29
>>534
usbメモリサイズでnnの構造の書き込みと計算結果の出力が出来るものがあるといいな


536 :デフォルトの名無しさん:2008/05/02(金) 22:14:31
二端子のアクティブ素子は皆淘汰されたからなぁ
メモリ以外の使い道は難しそう
MRAMとどっちが早いか/速いか

537 :デフォルトの名無しさん:2008/05/03(土) 03:23:38
端子数の問題じゃ無いんじゃない?
どちらかと言うと現状のLSI技術に馴染んで集積化できるかどうか?
もし可能なら本当にアナログニューロLSIチップや集積化した
アナログコンピュータも夢じゃ無いと思う。

その際の演算部分はやっぱりOPアンプかな?
あれってそんな集積化できたっけ?

538 :デフォルトの名無しさん:2008/05/03(土) 14:50:06
二端子アクティブ素子は回路/システム設計が難しい
トンネルダイオードやパラメトロンは当時としては非常に優れた素子だったが
信号を一方向に流す(入出力を分離する)ために三相クロックが必要で廃れた
今の回路技術なら何とかなるのかも知れないが
アナログは(A級動作なので)消費電力が大きいのが大問題
上手くパルスorD級で使えればいいのだが

539 :デフォルトの名無しさん:2008/05/03(土) 15:51:22
隠れ層の数が多すぎる場合、学習の精度は良くても別のデータでの予測精度が悪くなったりするんでしょうか?

540 :デフォルトの名無しさん:2008/05/03(土) 17:11:18
悪くなったり良くなったりする


541 :デフォルトの名無しさん:2008/05/03(土) 18:11:17
OpenCVのリファレンス(日本語版)をさらっと見ていたらNNに関する機能も提供しているようなことが書いてあったんですが、
使ってる人いたらNNのライブラリとしてどう思うか感想をお願いします。

542 :デフォルトの名無しさん:2008/05/03(土) 20:25:56
>多すぎる場合
と書いてるんだから,多過ぎるかどうかの判定手段として訊いてるんじゃまいか
学習データにもよるが,一般的にはそう考えて構わない(overfitting)

543 :デフォルトの名無しさん:2008/05/09(金) 01:05:29
NNの並列化に関する情報
ちょうあい

544 :デフォルトの名無しさん:2008/05/09(金) 02:30:42
意味不明

545 :デフォルトの名無しさん:2008/05/12(月) 23:07:55
>>541
OpenCVの物体検出関数で使ってるよ


546 :デフォルトの名無しさん:2008/05/29(木) 03:17:57
学習が進むと、誤差は極小値に落ち着くんですよね?
だったら、どうして過学習が起きるんでしょうか?


547 :デフォルトの名無しさん:2008/05/29(木) 03:38:53
だったらって、両者には何の関係も無いよ。


548 :デフォルトの名無しさん:2008/05/29(木) 12:24:00
関数の近似に対する局所的な誤差の最小化がローカルミニマム
学習しすぎて関数の近似なんて関係なくなったのが過学習


549 :デフォルトの名無しさん:2008/05/30(金) 01:42:22
>>546
ヒント:「過学習」とは....


550 :デフォルトの名無しさん:2008/06/05(木) 03:16:41
>>546
その時点で知りうる誤差最小値なだけだよ
谷はいくつもある可能性がある
一番深い谷に落ちるのが正解なわけだが
浅めの谷で最小値が決定してしまうと間違いでしょ
それが過学習

551 :デフォルトの名無しさん:2008/06/05(木) 03:22:37
というか人間の脳に正解なんて存在しないわけだ
9時に人に出会ったら「おはよう」という点に収束していたとして
それは正解でも間違いでもあるわけだ
学習すればするほどこの学習の重みが増していく
「キモオタには話しかけてはいけない」という別の学習が行われても
「おはよう」の重みが大きすぎると「おはよう」と言ってしまうわけだ
こうなると都合が悪いだろ
これが過学習

552 :デフォルトの名無しさん:2008/06/05(木) 08:25:48
過学習とは
訓練データに対する誤差は減るが
テストデータに対する誤差は増える状態

553 :デフォルトの名無しさん:2008/06/05(木) 11:14:35
線形関数から作った学習データに対して
ものすごい波形で学習に使ったのみ点を見事に通過する関数を思い描いてください。


554 :デフォルトの名無しさん:2008/06/05(木) 15:24:33
過学習かどうかってのはあくまでその挙動が正常かどうかという希望に関係してくる
数学的に正しい解は存在しない
計算するよう設計した時だけは別途解が存在するだけ
すべては製作者がこういう結果がほしいと望むことから始まる


555 :デフォルトの名無しさん:2008/06/05(木) 15:28:07
製作者が希望する結果が基準となり
それより足りなければ学習不足
それを超えれば過学習

556 :デフォルトの名無しさん:2008/06/05(木) 15:29:49
ちなみに人間の脳は過学習を抑えるために
常に学習結果を消去している
再学習されない場合は自然消滅する

557 :デフォルトの名無しさん:2008/06/05(木) 15:32:56
まあ人間の場合製作者はいないので基準が存在しない
だから過学習という状態は存在しないのだけど
ただ心理学系の馬鹿達に言わせれば
社会的に逸脱した状態が過学習なんだとさ

558 :デフォルトの名無しさん:2008/06/06(金) 00:21:05
なるほど
ある特定の社会(コミュニティ)に過適応するわけか

559 :デフォルトの名無しさん:2008/06/25(水) 14:48:21
SOMでオススメの本ないですが。
アマゾン見るとコホーネンの本は翻訳がくそだとか非難が多いのですが。


560 :デフォルトの名無しさん:2008/06/26(木) 23:50:56
あれは確か文科系の先生(しかも学生に手伝わせてる)が訳してて
箸にも棒にもかからなかった記憶がある

561 :デフォルトの名無しさん:2008/06/27(金) 16:39:02
今日本屋で自己組織化ネットワークの本見てきたけど
ほとんどの章を大学生が訳してた



562 :デフォルトの名無しさん:2008/06/27(金) 16:46:05
むしろ教授が関わってるのは「はじめに」くらいだと思われ

563 :デフォルトの名無しさん:2008/06/28(土) 02:39:34
全滅なのか
ウェブのほうがマシだということか


564 :デフォルトの名無しさん:2008/07/02(水) 18:24:58
あほでも研究費が取れる希少な分野ですからね

565 :デフォルトの名無しさん:2008/07/29(火) 00:31:41
制約付きニューラルネットワーク学習に関して詳しい参考書があれば教えてください。
基本的なニューラルネットワークのプログラムは組んだ事がありますが
制約に関してはネット上で言葉を見かけた程度で資料も見つからずどう実装するのかまだよく分かってません。


566 :デフォルトの名無しさん:2008/08/02(土) 16:32:04
人間の脳細胞の構造を考えて見た
どうやって学習するか
BPは同じ入力を与え続けて正しい結果が出るまでランダムに変化させるだろ
人間は逆だ
正しい結果を知った上で入力を変化させる
つまりだねランダムな入力をしてそれが望む結果じゃ無い時には
それは疲労感や絶望感や空腹や実際の栄養不足を発生させる
そうなると脳全体の軸策が減少する

つづく

567 :デフォルトの名無しさん:2008/08/02(土) 16:34:54
そして軸策が伸びる条件だがそれは単純に脳細胞に信号が到達した時に軸策が伸びる
つまりだ
入力をミスって脳全体が萎縮していくが正しい結果を得られたときだけ伸びた軸策は減少しない
それが学習として機能するんだ
これを実装する方法も考えた

つづく

568 :デフォルトの名無しさん:2008/08/02(土) 16:54:49
実装してから言ってね

569 :デフォルトの名無しさん:2008/08/04(月) 08:45:25
単なるアイデアじゃなくて、きちんとモデル化されてるなら、オレが実装してやってもいいぞ。


570 :デフォルトの名無しさん:2008/08/04(月) 09:31:00
>BPは同じ入力を与え続けて正しい結果が出るまでランダムに変化させるだろ
>人間は逆だ
>正しい結果を知った上で入力を変化させる

なにいってんの


571 :デフォルトの名無しさん:2008/08/04(月) 19:16:06
ニューハーフハローワークに見えた

572 :デフォルトの名無しさん:2008/09/01(月) 14:48:54
自己組織化マップのデータを可視化してくれるフリーのツール、どなたか知りませんか?
以前見かけたんですけど、どこにあったのか忘れてしまって……

573 :デフォルトの名無しさん:2008/09/01(月) 14:54:05
>>559
ネットで調べた方が分かりやすい。
この本読めたもんじゃないし。

自己組織化マップ ―理論・設計・応用 海文堂出版
はちょこちょこアルゴリズムも載ってるから、まだいいかもしんない。

574 :デフォルトの名無しさん:2008/09/01(月) 18:19:15
>>572
どんな入力データかによるだろ


575 :デフォルトの名無しさん:2008/09/03(水) 10:31:36
C++で実装されたライブラリでいいのないですかね。
最近の事情は全然知らないんで、わかりやすいサンプルがあるのがいいです。

576 :デフォルトの名無しさん:2008/09/03(水) 13:00:30
>>575
OpenCV

577 :デフォルトの名無しさん:2008/09/03(水) 14:12:15
>>576
対象は1次元データなので、コンパクトなもの希望です。
サンプルとしてでもフロントエンドのあるものがあるとよいのですが…

578 :デフォルトの名無しさん:2008/09/03(水) 19:38:39
ニューラルネットワークはカーブフィッティングあるから使いづらいよ。
統計学をきちんと学べば、機械学習の多くの手法が結局は親戚同士でしかないことや、
そもそもの因子選択がダメなら全部無意味だってことがわかる。

ニューラルネットワークしか知らない人は、「設計には慣れが必要」とか言って素人を煙にまくけど、
本質的な問題はね、機会学習のアルゴリズムは統計学が期待する「正規化されたデータ」という
幻想の上に立脚するものであって、単体では因子間の相関(多重共線性)を
適切に処理できないということなんだよ。

これはNN以外のあらゆる手法にもよこたわる、いわばバカの壁。

579 :デフォルトの名無しさん:2008/09/03(水) 19:48:51
これを処理する簡単な方法は、事前に多変量解析を行って、使えそうな因子があるかを見ること。
そして正規化処理を自動化すること。
因子間の相関が変化していく状況(リアルタイム)では、自分の設計を更新できないなら
すぐ使いものにならなくなる。
正直、なんで未だにニューラルネットワークを人間が設計することになっているのかよくわからない。
学会とかレベル低すぎ。

誰かはやくAI作ってくれ。

580 :デフォルトの名無しさん:2008/09/03(水) 20:04:39
>>579
いや、何か簡単に使えるフリーのライブラリがあればそれを教えてくれると
ありがたいんですが。
LIBSVMは試してみたんだけど、NNも試したいなと。
やりたいのは単に一次元データの予測なんだけど、未知なのでNNでやって
みようかなとそんくらいの統計素人ですんまsん。

581 :デフォルトの名無しさん:2008/09/03(水) 20:09:52
BP法系統のニューラルネットワークの性能の低さは、因子数が少ないほど顕著になる。
因子が0から1までの値を取るとしたとき、その値の範囲(0.3以下、など)に重大な意味があるようなケースでは、
その因子を適切に分解するプリプロセッサ無しに学習を行おうとすれば、
中間層が2〜3個余計に必要になったあげく、近似精度も劇的に低下する。

なぜかというと、処理対象となる因数空間の分割(非線形近似)にはステップ関数が必要だが、
そのために中間層のニューロンが消費されてしまう。
結果、本当に欲しかった「役に立つ近似」に使われるニューロンが減り、精度が犠牲になってしまうのだ。

思うに、ニューラルネットワークが何をやっているのかわからないというのは、
単にそれを真剣に考えたことが無いだけだと思う。
あらゆる非線形近似は、空間分割と線形近似の組み合わせでしか実現できない。
ニューラルネットワークは、それをステップ関数と足し算(引き算)で行っている。ただそれだけのことだ。

582 :デフォルトの名無しさん:2008/09/03(水) 20:18:13
ライブラリはR言語に付属しているのがある。本家サイトあたりから辿れたと思う。

あとはアルゴリズム系の書籍のサンプルソースダウンロードが利用できる。
書籍を買わないとソースの解説は無いが、R言語に付属している優秀なデータを食わせれば
だいたい推測できりはず。もっとも、実データの処理に使うには教科書的すぎて役に立たないと思う。
NNの改善論文が多いのは、元のアルゴリズムが驚くほどクソだから。空間の境界部分を
きっちり処理したいなら、SVMやk近傍法のほうがはるかにマシ。

583 :デフォルトの名無しさん:2008/09/03(水) 20:24:27
ニューラルネットワークの本質は、k次元のケーキをナイフで切り分けてるだけ。
中間層を増やせばそれだけ太刀筋は複雑な軌道を描けるようになり、
一見うまくいくように見えるが、その軌道が合理的なものである保証は無い。

偶然に人の皮膚すれすれをナイフが通っても、ケーキが切れていれば切り分けは成功したことになるし、
値は収束したことになる。NNの誤差の収束ってのは、そのくらいの意味しかないのよ。

584 :デフォルトの名無しさん:2008/09/03(水) 20:39:23
SOMの可視化も、2〜5因子くらいにまで絞れているなら座標xy、色rgbとか使って
好きなように表示できるけどね。それ以上だと難しい。

「R言語 SOM」でぐぐると画像が見つかるかも。へぼいけどwww

まあ出来合いの可視化ツールはあんまり見た目が良くないし、リアルタイムに見ながら因子を
入れ替えて別の角度から見てみるとか、3因子だから3D表示で見たい!とかなら、
自前で書いたほうが絶対楽だと思う。
上でも勧められてるけど、OpenCV、OpenGL(GULT)あたりがオススメ。データの読み書きはC言語のサイトを参考に。

585 :デフォルトの名無しさん:2008/09/03(水) 21:19:41
>>581
中間層が2、3個増えてもなんの問題もないです。
未知な関数をあれやこれや考える余裕もSとかRを使いこなす知識もないので
簡単に近似できるものがないかなと。
例えば何個かの関数の合成だとしたとき、NNならそのそれぞれの関数を見つけて
(近似して)くれる可能性がありますよね。
>>584
少しぐぐってみたけど、これって1層NNなの?って思った。多分違うんだろうけど。
理屈はいいので、よさげなNNライブラリかコマンド群教えてくださいw

586 :デフォルトの名無しさん:2008/09/03(水) 22:25:56
どうしてもライブラリでやりたいなら、R言語のライブラリ使うか、CPANのPerlライブラリを
「Neural」とか「BP」とかでサーチするのが楽だと思う。

ぶっちゃけ↑より簡単な方法は無い。
大抵の言語で、フリーの学術系ライブラリってのは全滅に近い。
汎用性持たせようとすると書くのも検証するのも大変で、フリーじゃ割に合わない分野だからね。
カネがあるなら別だけど。

ちなみにNNにデフォルト設定なんてものは無い。
かなり自前で設定する必要があり、結局自前でコード書くのと大差無いことになりがち。

言語は?データの型は?データの値の範囲は?
入力、出力ニューロンの数は?中間層と中間ニューロンの数は?
学習回数は?収束を判定する方法は?
学習結果を使う、保存する方法は?ある値を入れたら何が出る?
それを可視化して結果や精度を確認するには?

結局R使え、C言語のサンプルいじれという話になる。

587 :デフォルトの名無しさん:2008/09/03(水) 22:50:40
ちょっとぐぐってCortex/Shark/fannてのを見つけたんだけどどんなもんでしょう。
 Cortex http://cortex.snowcron.com/
 Shark http://shark-project.sourceforge.net/
 fann http://sourceforge.net/projects/

>>586
なんかいっぱい質問されてますが、C++のライブラリで、サンプルでもフロントエンドがあれば
うれしいと言ってるんですが。あとの項目は普通設定できるんじゃないかと思うんですが、
心配してもらうところじゃないと思います。やりたいのは1次元なので可視化はべつに不要ですし。

588 :デフォルトの名無しさん:2008/09/03(水) 23:14:06
>Cortex
サンプルに株価データもどきを使ってるのはジョークか?
フロントエンドは無い。

>SharkのReClaMライブラリ
計算ライブラリ。チュートリアルはダウンロードしないと見れない。
フロントエンドは無い。

>fann
URLはこっちかな。 http://leenissen.dk/fann/
対応言語が多い。チュートリアルは最もシンプルで、すぐ動かせる感じを受けた。
ただ、ファイルのフォーマットが in-out-in-out-... 順になっててちょっとキモイ。
フロントエンドは無い。

というか汎用性を追求したライブラリに、GUIをつけるメリットが分からない。
普通は付けてもCUIフロントエンドくらいじゃ?

589 :デフォルトの名無しさん:2008/09/03(水) 23:22:01
JavaNNS-Win なんかはどうだろう。
これはGUIがある。
しかし色々な機能があるから、使い方を覚えるのに手間取ると思う。

590 :デフォルトの名無しさん:2008/09/03(水) 23:31:45
>>588
quick reviewどうもです。fannはソースがhttp://sourceforge.net/projects/fannでした。
>>589
これですね。ただJavaだけは勘弁してくださいw
http://www.ra.cs.uni-tuebingen.de/SNNS/

591 :デフォルトの名無しさん:2008/09/04(木) 00:00:46
フロントエンドとしてどの程度の結果が欲しいのかがよくわからんな。

Cで処理した結果を見るだけなら、それこそHSPでも何でもいいわけで。

592 :デフォルトの名無しさん:2008/09/04(木) 06:01:10
NNくらい、3時間あれば書けるだろ
それができないならパラメータを調節できないと思うし諦めたほうがいいよ。


593 :デフォルトの名無しさん:2008/09/04(木) 06:55:47
>>591
質問の意味が分からん。HSPとか勘弁してくれ。
>>592
あぁ、1時間もあれば書けるさ。

594 :デフォルトの名無しさん:2008/09/04(木) 07:08:49
Cが書けるならGLUTでもWin32APIでも何でもいいだろ。自分で書け。

ここはソフトウェア板じゃないんだから(笑)

595 :デフォルトの名無しさん:2008/09/04(木) 07:38:28
なんだかさっぱりだ(・ω・`)
ゆとりの一種でしょうか。

596 :デフォルトの名無しさん:2008/09/04(木) 09:20:46
ライブラリとかほしい。インターフェスだけ公開されててさっくり実装!
っていうのがあるんでしょうな。
ベイズフィルタなんかもライブラリとかあって簡単に使えるじゃん?

実際NNで汎用的なそういうのが可能なのかしらんけど。

597 :デフォルトの名無しさん:2008/09/04(木) 23:30:46
何か偉そうにいろいろ書いてるやつがいるが「因数空間」って何?
知ったかぶり??

598 :デフォルトの名無しさん:2008/09/04(木) 23:36:53
うん

599 :デフォルトの名無しさん:2008/09/05(金) 04:04:24
>NNで汎用的な
これは実際にはあまり使われない(自前で作っても簡単)から結局廃れてる

600 :デフォルトの名無しさん:2008/09/05(金) 19:22:58
追加で学習しても以前の学習結果を保持しているような方法ってあるの?
実用的なレベルでね
例えば関節の動きを学習させるのにいちいち前回の姿勢情報と行動結果を
すべて記録して再学習させるなんて時間が掛かりすぎるからね
行動したら学習するっていう単純なサイクルを繰り返したいわけですよ

601 :デフォルトの名無しさん:2008/09/05(金) 19:27:03
>>600
ノードが多ければできるんじゃない?
以前の学習結果がプールできて、
かつ場合によって新旧どちらを選ぶかの余裕をもたせてやれば

602 :デフォルトの名無しさん:2008/09/05(金) 19:58:42
>>600
Temporal Difference Learning

603 :デフォルトの名無しさん:2008/09/05(金) 23:05:34
>>600
それニューラルネットワークじゃないから。

604 :デフォルトの名無しさん:2008/09/05(金) 23:08:18
収束を待つとか悠長なことを言っている時点で
ニューラルネットワークが実時間処理に向かないことは自明。

収束早める方法がうんたらかんたら〜というゴミのように見える
論文が量産されているけど、実際にゴミだ。
実時間処理に向かない理由の根本的な改善にはなってない。

605 :デフォルトの名無しさん:2008/09/05(金) 23:10:38
そんなの用途しだいだろ。
実時間処理っつってもピンキリだし、だいたい対象が分かってるなら普通の適応フィルタ
で済むしな。

606 :デフォルトの名無しさん:2008/09/05(金) 23:27:03
そう。大抵の問題にはニューラルネットよりも良い方法がある。
つまりニューラルネットワークを使おうと思った時点で、そいつは
何か大事な前提を勘違いしていることのほうが多い。

そもそもニューラルネットワークの学習というのは、隠れ層の層数に
比例した次元数に固定されているものだからな。
次元数自体を学習によって適切な数になるまで減らしていくSVMなどに比べて
粗悪な結果になるのは当然のこと。

>>585は本気で中間層を増やせばいいと思ってるらしいが。やれやれ。

607 :デフォルトの名無しさん:2008/09/05(金) 23:43:42
>>602
Q learningってのがそうなの?
論文見てもよくわかりません
実装例とかどっかにないですか?

608 :デフォルトの名無しさん:2008/09/05(金) 23:49:53
ニューラルネットが独立した手法とか概念だと思っている時点でダメすぎ。
しょせん統計学の後追い手法だからな。

わざわざ ニューラルネット用語(笑) を発明したアホどもが 入力ユニット(笑) とか
結合の重み(笑) とか呼んでるせいでによって分かりづらくなっているが、
こんなもんは古典的な近似関数の亜種だ。雑種だ。従って、ニューラルネットワークは
統計学にあるのと同じ、古くさい問題をぜんぶ抱え込んでいる。

「学習」の一番オードソックスなやつは、線型近似だ。

それじゃ実用にならないからってんで、k次関数近似として次元数を上げていくと
数値上は100%フィットするようになる。より適切な近似/補完手法も存在する。
だが、「誤差に弱すぎて意味が無い」ところまで突っ走って満足する輩が多すぎる。

自由度(入出力因子数、中間層層数、中間層因子数)が増えるほど
結果が無意味になっていくのは、近似関数全般に通じるいち常識でしかないのだが
なぜか「中間層が増えると賢くなる」と誤解する人が後を絶たない。

どんな魔法だよwwwwwニューラルネットワーク(笑)wwwww

609 :デフォルトの名無しさん:2008/09/06(土) 00:01:29
Q-learning は、行動と状態を同一視して扱うもので、見方によっては
ニューラルネットワークのようにも見えるし、あるいはもっと単純に
でっかい行列として見ることもできる。

ニューラルネットワークのように全体を一斉に更新するなどという
非生物的で邪悪な操作を行わない点が、利点。

しかし一般に、実時間学習での問題点は、なによりも「時間」をどう扱うかだ。
ヴァーチャルな箱庭の中(もちろん行動にはtuneの概念がある)で
アニマットに餌を食うように行動学習させるだけでも、数ターンぶんの行動を
バッファに貯めて、逆伝播させていく必要があったというし。
細長い袋小路(局所最適解)に囚われないようにするには、バッファを
かなり長くとらないといけなかったという。

ヒトの場合はエピソード記録とか、便利なイベント単位の記憶があるので、
学習が楽になっているようだが。このへんの手法は未だ未知の領域だったりするので
こころしてかかるこった。


610 :デフォルトの名無しさん:2008/09/06(土) 00:32:36
Q-learningでぐぐって出てくるページにも書いてあるけど、
「ロボットのセンサを統合して複雑な行動を学習させる」みたいな
ちょっと複雑な問題を処理させようとすると、アホみたいに行列が
でっかくなっていくんだよ。

それに加えて、>>609で書いたように一定ターン数 or 一定時間ぶんだけ
行列の組が必要になるわけで。昆虫の足だか玩具の足だかを
クロールさせるのならともかく、あんまり複雑な処理になると
もはや悪夢だね。

これじゃ、a)メモリに入りきらない または b)メモリに入りきるように
削ったら汎用性が無くなった あるいは、その両方 ということになる。
パソコンに有線で繋いでおかなきゃ、学習もままならないんじゃないかね。
まさに本末転倒ってやつだ。

611 :デフォルトの名無しさん:2008/09/06(土) 01:23:11
ニューラルネットを学べば学ぶほどその無意味さを実感する。
でも実感してもまだニューラルネットのろくな根拠のない可能性を信じれる人が新しいやり方を作って行けるような気がする

612 :デフォルトの名無しさん:2008/09/06(土) 01:27:40
もし状況を想像し辛いなら、ロボットアームの動きをシミュレートすると
分かりやすいと思われる。

     ○
    /  \
  /      \
■          匚

       ●←ボール

■は肩。○は肘。匚は手。
ここで、手の操作は省略して、「決まった位置に置いてあるボールに手で触れる」という
比較的簡単な問題をえてみる。

さて、>>609 に照らして設計を考えると・・・
入力因子
    行動:肩の行動、肘の行動
    状態:肩の角度、肘の角度

出力因子
    行動:肩の行動、肘の行動
    状態:肩の角度、肘の角度

となる。

613 :デフォルトの名無しさん:2008/09/06(土) 01:30:03
ふう,なぜNNがあれだけもてはやされたか全然分かってないな
統計的な手法より「実際の問題に使い易かった」だけなんだよ
統計的な手法を使おうとするとその方面を相当勉強しなければならないが
NNなら適当な前処理(これは領域知識だから既に持ってる)を噛まして
適当な層数とニューロン数でやってみればそこそこ使える結果が得られる
現実の問題ってのはそんなに難しい問題じゃない場合が多いからね
数学的にとか本質的にとかと全然関係ない理由で流行ったんだよ

614 :デフォルトの名無しさん:2008/09/06(土) 01:34:35
各時点での情報は最低限上記のものが必要で、その対応関係は
最も単純な形では4×4の行列になるだろう。これが学習によって
更新されてゆくことになる。

時系列を考慮すると、たとえば5ターン分の情報のセットを記録しておくなら、
配列は5個という形になる。(しかし、ただ伸ばせばいいというわけではない。
自由度が増えると精度が落ちるし、ターン制ならともかく実時間だと大変困ったことになる)

[ 4 ]→[ 3 ]→[ 2 ]→[ 1 ]→[ 0 ]

(図:[ ]は行列。数字はn個前をあらわす)

んで、てきとーに動いて[ 0 ]でボールに接触したら、過去に向かって記録を
辿っていき、報酬を与えていく。これを繰り返してゆく。
(残念ながら、あまりエレガントなアルゴリズムは存在しない。別分野での
 研究成果を応用したりするといいかもしれない)

[ 4 ]←[ 3 ]←[ 2 ]←[ 1 ]←【 0 】 ボールに触った!

#蛇足だが、学習時の行動選択がランダムである場合、
#これはコンピュータ囲碁におけるモンテカルロ法に非常によく似た
#アルゴリズムになる。この類似はなかなか面白い。

615 :デフォルトの名無しさん:2008/09/06(土) 01:53:59
脳の並列処理能力はすさまじい。
もし将来、ニューロンがランダムに発火し、脳がモンテカルロ法で動いている
(論理的な思考は大して重要ではない)という結果が出ても、
驚きより納得のほうが先に来てしまいそうだ。

616 :デフォルトの名無しさん:2008/09/06(土) 02:04:44
モンテカルロ法のような方法がうまくいくのは
答えがたくさんある場合だと思う。遺伝的アルゴリズムと同じ。

617 :デフォルトの名無しさん:2008/09/06(土) 03:03:52
Qlearningの意味が分かった
入力と出力の全組み合わせパターンのデータベースを作って
それぞれの組み合わせの出現確率で重みをつけていって
学習結果は一番重みの大きいものを適用するわけだな
これは自分で既に前からアイデアとしては持ってた
自然言語処理で似た様なアルゴリズムは応用したけど
画像認識のような組み合わせパターンが必然的に巨大になるようなのは
現状のHDDじゃ容量が足りないぞ

618 :デフォルトの名無しさん:2008/09/06(土) 03:15:31
今すごいアイデア思いついた
統計的アプローチで追加学習可能でニューラルネットと同等の精度が出せるもの
ちょっと実装してみるわ

619 :デフォルトの名無しさん:2008/09/06(土) 03:24:30
データマイニング、情報抽出などの分野はどうですかね。

学習がうまくいったとしても、最適な学習データがそもそも分からないなら意味が無い。
むしろ、同時進行のほうがいいかもしれないし。

620 :デフォルトの名無しさん:2008/09/06(土) 08:22:46
さて、NNライブラリ何かないかと聞いた575ですが
もちろん>>613さんが言ってる通りの意味で使ってみよと思ってるわけですよ。
統計素人ですがこんなの常識じゃないんですかね。
>>606
SVMは別途試してますがNNでも試そうと思ってるんですよ。理論はともかく
実際に使える道具(ライブラリとかのことね)で実際の問題にあたってみなければ
分からないでしょ?
今時のPCは十分速いので単純に中間層を増やしてプリプロセスの代わりになるな
らそれはそれで別に問題ないと思うんですがね。
本物の研究者さんの最新の実装とかの情報があればいいなとは思ったんだけど
やっぱり難しいですねぇ、そういうのは叩かれそうだし。
さすがにこんな過疎で

621 :デフォルトの名無しさん:2008/09/06(土) 17:50:14
>>620が尊大なゆとりじゃなければもうちょっとレスもつくんだろうけどねぇ。

622 :デフォルトの名無しさん:2008/09/06(土) 17:52:12
>統計素人ですがこんなの常識じゃないんですかね。

いちおう念のために聞いておくけど、素人が偉そうにするのってどこの国の常識?

623 :デフォルトの名無しさん:2008/09/06(土) 19:40:56
>>613
もしかして別の板で、GAは山登り法でできることをわざわざ変なやり方している
と書きまくっていた人でしょうか。
いや雰囲気がそっくりなんです。

624 :613:2008/09/06(土) 20:29:21
そう思わないでもないが,俺ではない

625 :デフォルトの名無しさん:2008/09/06(土) 21:23:42
>>621-622
自治厨乙。
スレ違いなんだよ。
>>623
山登り法ってどこの方言だ。

626 :デフォルトの名無しさん:2008/09/06(土) 21:33:29
↑君が無知なだけ。

627 :デフォルトの名無しさん:2008/09/06(土) 21:41:35
山登り法も知らないやつがこのスレにいることが間違い



628 :デフォルトの名無しさん:2008/09/06(土) 21:43:07
>>623
全然似てないじゃん

629 :デフォルトの名無しさん:2008/09/06(土) 23:48:42
そういえば昔は掃除機屋もニューロとかファジーとか騒いでたな。
今はどうなったんだろう。

630 :デフォルトの名無しさん:2008/09/07(日) 00:06:01
その日の気分で吸ったり吸わなかったりか。
俺といっしょじゃん。

631 :デフォルトの名無しさん:2008/09/07(日) 00:10:58
>>629
当時レベルのファジーやらなんたらは平凡に使われているという話である。
今はやってないから言わなくなった

632 :デフォルトの名無しさん:2008/09/07(日) 00:25:21
非ファジー
        _____
         |
_____|



ファジー
          ____
         /
____/


こうして図にしてみると、いまさらこんなのに名前をつけても売れないことが
よく理解できる。やはり売るなら実体の無い宗教、マイナスイオンだね。
実体が無いものならPL法にひっかからないし、宗教なら非難されようがないもんね。

633 :デフォルトの名無しさん:2008/09/07(日) 00:28:39
板違い

634 :デフォルトの名無しさん:2008/09/07(日) 14:07:25
エアコンは今でもニューロ回路持ってるだろ


635 :デフォルトの名無しさん:2008/09/07(日) 21:24:18
自分で学習するオセロ作ったぞ
今戦って教えてる所です

636 :デフォルトの名無しさん:2008/09/08(月) 00:04:47
ほほう
強くなったらうpして

637 :デフォルトの名無しさん:2008/09/08(月) 00:23:16
そもそも学習させている事例が良ろしくなければ(ry

638 :デフォルトの名無しさん:2008/09/08(月) 00:24:42
Yahooオセロbot作って自動で学習したらいいよ

639 :デフォルトの名無しさん:2008/09/08(月) 00:31:57
そんな事は無駄

640 :デフォルトの名無しさん:2008/09/08(月) 00:35:52
>>637
具体的にどんな事例がよろしくないの?


641 :デフォルトの名無しさん:2008/09/08(月) 01:17:31
構造上強くも弱くもならないよ
対戦相手の強さをそのまま学習する仕組みだからいずれ同レベルになるだけ

642 :デフォルトの名無しさん:2008/09/08(月) 01:19:52
何万回くらい対局すれば強さは収束する?

643 :デフォルトの名無しさん:2008/09/08(月) 01:29:23
ていうか>>618の思いついたのを実装して
オセロに適用したんですよ
どれくらい効果があるのはまったく予想不能

644 :デフォルトの名無しさん:2008/09/08(月) 02:09:26
結果もってこいや


645 :デフォルトの名無しさん:2008/09/08(月) 02:13:02
まさかとは思うが、ネタを振っといて
結果が思わしくなければを出さないなんて事は無いだろうな。

646 :デフォルトの名無しさん:2008/09/08(月) 03:11:45
ただのエキスパートシステム(笑)が出来るに1クロン

647 :デフォルトの名無しさん:2008/09/08(月) 04:00:40
>>642
あっけなく負ける強さに収束するから意味なし。
問題は強さの定義だろう。どうやって強さを教えるんだ?

648 :デフォルトの名無しさん:2008/09/08(月) 04:11:14
>>647


649 :デフォルトの名無しさん:2008/09/08(月) 10:01:29
>>647
強さとは、素人の俺と対戦したときの勝ち負けできまる。
すべて俺基準な。

650 :デフォルトの名無しさん:2008/09/08(月) 12:40:17
>>649
学習が終わる前にお前死んでると思うが


651 :デフォルトの名無しさん:2008/09/08(月) 14:14:14
>>649
>>46のチェッカープログラムは遺伝的アルゴリズム
>>135のバックギャモンプログラムはTD学習
を使い自己対戦で学習してトップレベルの強さになってる。
多分瞬殺されると思うよ。

652 :デフォルトの名無しさん:2008/09/09(火) 04:14:02
>651
ほー、どっちも自己対戦学習で強くなってるのか。
チェス、将棋、囲碁でもそれができるのかが興味深いところだな。

653 :デフォルトの名無しさん:2008/09/09(火) 04:20:06
やっぱりニューラルネットワークと強化学習の枠組みって
相性が良いのかな?

654 :デフォルトの名無しさん:2008/09/09(火) 05:00:26
>>651
閉じた環境で育った知恵というのは、厚みがなくちょっとした
認知不能な流れで最弱な流れになるものだよ。
自己対戦なんて典型的な閉じた世界だろ、何せ相手は自分と同じ論理で
行動するわけだから情報処理ネットワークが狭い閉じた世界に収束してしまう。
いわいる建前の強さというやつ。
>>652
自己対戦で強くなるなんて思っているコンピュータ将棋もチェスの作者は
いないよ、みんな多様性を学習させるためにいろいろな相手に対戦させて
いる。
緻密で正しい勝つ確率がもっとも高いことしか選ばないソフトに勝つことは
非常に容易である、羽生の対戦でもみて勉強してこい、てな雰囲気だよなw
ソフトで学習が容易なのは戦術であって戦略ではない、困難なのは高次の
戦略を感じ取る抽象的な思考能力、頂点で闘うゲームでは強さではなく
ブラフというものが最終的な勝ち負けを決める。
何故なら全手計算できないからだ、予測できない域で勝敗が決まる勝負では
予測できない域を制覇できるものが勝者となる。
>>651君が求めているのは予測可能、全数計算可能な域での話であって、
予測不可能な試合では通じない論理だ。

655 :デフォルトの名無しさん:2008/09/09(火) 10:57:54
強さに何の意味があるのかね
知能の本質は強さじゃない
天然ボケってのは人間のような高等な推論をする上で必要不可欠な機能だよ
ボケを持たない知能はただの機械的回路にすぎない

656 :デフォルトの名無しさん:2008/09/09(火) 11:56:48
身をもって知らせたわけですね。わかります。

657 :デフォルトの名無しさん:2008/09/09(火) 12:18:23
>>656
さわるなよ

658 :デフォルトの名無しさん:2008/09/09(火) 12:42:02
某スレから馬鹿が流れてきたのか

659 :デフォルトの名無しさん:2008/09/09(火) 13:30:43
ボケっていうのは例外事象に柔軟に対応するシステムなわけだ
これがあるから人間ってのは数学的収束を持たない
一度収束した回路は二度と別の用途には利用出来ない
例えばひたすらチェスを学習させた人工知能は将棋を学習することは出来ない
チェスも将棋もこなす人工知能は存在出来ない
だが人間はこれが出来る
これが出来る理由がボケというシステムの存在だ

660 :デフォルトの名無しさん:2008/09/09(火) 13:34:13
最高に強いAIチェスなどに興味はない
人並みの強さだがどんなゲームにも柔軟に対応できるAIこそ
真の人工知能だ

661 :デフォルトの名無しさん:2008/09/09(火) 13:42:30
それが分からないやつには人工知能なんて作れないよ

662 :デフォルトの名無しさん:2008/09/09(火) 13:46:16
現状の翻訳システムとか音声認識とか自然言語処理とか見てみろ
機械的な入力条件じゃないと正しい結果が出せやしない
結局機械に毛が生えたようなただのおもちゃだよ
関西弁を翻訳出来てこそ人工知能だろ?
顔文字を認識出来てこそ自然言語処理だろ?
ちがうか?

663 :デフォルトの名無しさん:2008/09/09(火) 14:00:02
違うね

664 :デフォルトの名無しさん:2008/09/09(火) 14:02:00
というか、何が言いたいのかサパーリだな。
よっぽど何かトラウマとか劣等感があるのだろうね。

665 :デフォルトの名無しさん:2008/09/09(火) 14:24:48
自分定義の人工知能を語るのって新手のオナニー?

666 :デフォルトの名無しさん:2008/09/09(火) 15:14:57
そんなこと言ってるから何時まで経っても進歩しねーんだよ
英語の翻訳出来ました、フランス語の翻訳出来ましたとか言って満足してるのが現状だろ
そもそも言語とは何かってところから学習を始めないと意味がないんだろ
そして英語もフランス語も同時に学習していかないと使えないんだよ
チェスを学習するということはチェスとは何かを学習することだ
強さじゃねー


667 :デフォルトの名無しさん:2008/09/09(火) 15:21:14
そんなに気持ちいいのですか。

668 :デフォルトの名無しさん:2008/09/09(火) 15:22:11
形態素解析エンジンを作りましたこれで自然言語処理が出来るとか馬鹿なこと言ってんじゃねー
形態素解析こそ自動学習で最初に作るべきものだろうが

669 :デフォルトの名無しさん:2008/09/09(火) 16:05:08
別の世界からこにゃにゃちわ(・ω・)/

670 :デフォルトの名無しさん:2008/09/09(火) 22:46:25
犬語とか猫語?
あ、それはもうあったか。

671 :デフォルトの名無しさん:2008/09/10(水) 00:19:21
>英語の翻訳出来ました、フランス語の翻訳出来ましたとか言って満足してるのが現状だろ
どんな妄想だこれ?w

672 :デフォルトの名無しさん:2008/09/10(水) 15:14:36
http://www.si.hirosaki-u.ac.jp/~ei_sys/neuro/backprop.c
これのvoid backward()のところの式あってる?



673 :デフォルトの名無しさん:2008/09/10(水) 16:47:45
その位自分で分からないのなら手を出すなw
せめて自分が正しいと思うコードを書くとかしないと

674 :デフォルトの名無しさん:2008/09/10(水) 21:35:27
>>672
それないよ
BPにすらなってないソース掲示されても困るよな

675 :デフォルトの名無しさん:2008/09/12(金) 10:38:22
マヌケな無能君が、途中結果もだせず、考えもまとまらず、誰にも評価され
ない情況が続くので必死に2chで喘いでいます、オマエだ、オマエしかいない。

すくなくともオマエの意見に賛同するのはオマエだけ。
匿名で発言しても何も変わらんし、おまえのストレスが増えてゆくだけ。
ここで答えが求まるとか議論していると勘違いしている君には
治療薬すらない。


676 :デフォルトの名無しさん:2008/09/12(金) 12:06:15
BPになってないワロタ
プログラミングしたことないのか

677 :デフォルトの名無しさん:2008/09/12(金) 19:09:51
>>672
8行目と9行目のsum+=のとこと
delta1[j]=のとこが微妙だな

678 :デフォルトの名無しさん:2008/09/15(月) 20:59:38
>>608
分かりやすい説明だな。

679 :デフォルトの名無しさん:2008/09/15(月) 21:14:10
「ロジスティック回帰モデルと単層パーセプトロンは等価である」
と言うのは本当でしょうか?

またWikipediaの説明によれば単層パーセプトロンに隠れ層(連合層)が
あるように書かれていますが、これはおかしいのでは無いでしょうか?

680 :デフォルトの名無しさん:2008/09/17(水) 18:38:55
頼むおしえてください!
誤差逆伝播法で忘却項を導入する方法があるけど
いったいどんな利点があるんでしょうか?

681 :デフォルトの名無しさん:2008/09/17(水) 19:03:32
>>679
単層というのは学習する層がひとつで中間層はあっていいよ

682 :デフォルトの名無しさん:2008/09/20(土) 01:22:19
>隠れ層(連合層)が あるように
隠れ層と連合層は同じじゃない
どちらも中間層のではあるが連合層を隠れ層とは呼ばない


683 :デフォルトの名無しさん:2008/09/20(土) 01:22:47
「の」が余分だった

684 :デフォルトの名無しさん:2008/09/20(土) 08:51:49
> 野良犬(ポチ)
野良犬とポチは同じじゃない
どちらも生物ではあるがポチを野良犬とは呼ばない


みたいな?


685 :デフォルトの名無しさん:2008/09/21(日) 04:17:41
ニューラルネットワークの「原理」は存在し検証できる。

しかし知的「仕組み」は先天的に作るものと後天的に生まれるものがあり
先天的なものが何かを特定できない時点で構築する以前の問題ではないか、
知的なものが後天的に全て学ぶものだと仮定すれば、すべて学習となり、
人が20年程度かけて修学するほどの手間がかかり、100%の全てが
大人になりえるわけでもない。
現状で原理の上に築く先天的な仕組みがどのような物かを微小なり概念なり
説明できるのならやってくれ、できないからこを糞スレに粘着しているんだろう。

それとは違う先天的な構築方法で行うメタ的な情報を築く手法の過程では
ライブラリーのように地道に確実に積み上げしてゆくことが大事だと
何故気がつかないか?

自動で全てが成りえるという幻想でもいいが、自動ほど恐いものはない、
自動で成りえる情報の秩序を暴走させずに、奇形にならずにバランスを
もった特定の形へなるなら人だってキチガイは生まれないだろう。
確率の問題なのか、それであれば永遠に近い時間で偶然を待つしかない。
人すら教育が困難なのに、人が生み出す人工知能の教育が簡単で一瞬で
できあがると思うのか?


686 :デフォルトの名無しさん:2008/09/21(日) 04:29:47
面白くないコピペだな

687 :デフォルトの名無しさん:2008/09/21(日) 08:13:20
> ニューラルネットワーク  原理

>                     後天的
>        何か                 問題
> 知的
> 人                       100%

>    原理の上に築く先天的な仕組み             概念
>                       糞   粘着


> 自動
>           秩序 暴走     奇形
>                 キチガイ

>    教育 困難          人工知能
> できあがる

重要な単語のみ抽出した
つまりニューラルネットワークは,人が何か後天的に知的な問題を,
原理的で先天的な仕組みの概念で糞が粘着し
自動的な秩序の暴走を促す(?)奇形(キチガイ)を教育する人工知能を作る物.

という壮大な物語だったのさ

688 :デフォルトの名無しさん:2008/09/21(日) 10:32:18
と、自作自演な厨が荒らしております。

689 :デフォルトの名無しさん:2008/09/21(日) 14:10:52
一生懸命考えた結果がこれだよ!

690 :デフォルトの名無しさん:2008/09/22(月) 00:14:47
糞スレに常駐するDQNは何もできないからこそ常駐して妬んでいるだけ。
まさに病気そのものwっうぇええうぇうぇっうぇ

691 :真スレッドストッパー:2008/09/25(木) 01:28:39
つか、本とかの解説どおり習得して終わり。
さあ満足したか?それでおわり、その先はない。

結局自分では真似だけして何もできないのが、その先があると勘違いして
騒ぐが結局は自分で生み出したものではないので何もできない。
つまんねーなw。すこしは自分で結果をだしてみろよ。
物事を生み出すことができないのは君が論理に支配されているからだ。
論理を超えてみろよ、嘆きの壁は越えられない。
そう定義されているから、だから諦めろw

692 :デフォルトの名無しさん:2008/09/25(木) 18:14:44
>>672
そのソースは修正のところで、教師信号がp個あったら
現状での、全てのパターンの信号の誤差を和算して一気に修正してるけど、

データ0で誤差を計算し修正。
データ1で修正後の荷重を用いて誤差を計算し修正
データ2、データ3で・・・・データpでってやるのが

693 :デフォルトの名無しさん:2008/09/26(金) 07:39:30
>>692
日本語でおk

694 :デフォルトの名無しさん:2008/09/26(金) 09:44:10
逐次更新より一括のほうが正しい計算だろ


695 :デフォルトの名無しさん:2008/09/28(日) 16:47:36
シミュレーション板へ帰れ!
ここはプログラミング板だ

696 :デフォルトの名無しさん:2008/09/28(日) 16:49:14
この板はプログラムを作る人のための板です。

あらゆる質問はまずすれ立てるまでもない質問はここでスレにしてください。

その他、お勉強ページへのリンクスレ、
推薦図書・必読書スレ
もあります。

プログラム・ソフトの使い方は PC 初心者板やソフトウェア板へ。
ウイルス、ハッキング・クラッキングを求めるような発言は禁止です。
Javascript は Web 制作板、CGI は Web プログラミング板へ。
業界談義、愚痴はプログラマ板へどうぞ。
ゲーム関係の話題はゲーム製作板へどうぞ。
ネタ、板とは関係の無い話題はご遠慮ください。


697 :デフォルトの名無しさん:2008/10/01(水) 17:35:15
>>231のソースコードが見れない見たい。

698 :デフォルトの名無しさん:2008/10/07(火) 17:33:51
>>227-228
のデータを3層ニューラルネットワーク、中間層の素子数10でやると
5秒くらいで学習が完了するんですけど、
素子数を100にすると学習がなかなか進みません。
100って多すぎるんですかね?

699 :デフォルトの名無しさん:2008/10/09(木) 01:19:21
>>698
素子数の組み合わせの数がどれぐらいになるか計算もできないの?
単純なニューラルネットワークは大規模になるほど指数的に難しくなる。


700 :デフォルトの名無しさん:2008/10/11(土) 09:48:51
>>698
中間層増やし過ぎるとカーブフィッティングしまくりで使いものにならないよ。

701 :デフォルトの名無しさん:2008/10/25(土) 19:32:13
問題ごとに中間層の素子数はどのくらいが適正なんて
ノウハウは公開されたものはどこにも無いのな?

みんな経験と勘で決めてるのだろうか?

702 :デフォルトの名無しさん:2008/10/27(月) 00:24:08
>>701
だいたいは経験と勘。
もし適切な数というものを半自動的に決めたいのなら、そこは
統計学の分野に一日の長がある。

具体的には多変量解析、重回帰分析、増減法とかでぐぐれ。
それすら単なるノウハウと言ってしまえばそれまでだがな。

703 :デフォルトの名無しさん:2008/10/28(火) 23:52:50
>702
サンクス。

何かものの本を見るとAIC(赤池情報量基準)
とか言う決め方があるみたいだな。
勉強してみよう。

704 :デフォルトの名無しさん:2008/12/14(日) 18:58:12
わかる人いるか

自己組織化マップ(SOM)に興味もってる。
脳は自己組織化を実現してるのは間違いないと思うけど、
一方で自己組織化を実現する本質はSOMじゃねえと思ってる。
近傍学習・競合学習を、ニューロンが持つ単純な計算機能を
SOMみたいな入力層・競合層みたいな構造ではない、ほかの構造で、
実現しているんだと思う。

でだ、ニューロンを0,1のバイナリな状態しか保持できない(1=発火)と仮定して、
時間軸方向に、何か発火の時間的なタイミングとかパターンが
意味を持つような形で、構造化されてるんじゃないかと思う。
たとえば視覚情報は、シリアルな値として入力層に現れるんじゃないか、という話。
SOMの学習済み競合層は、よく2次元でマップされてるのが例として出てくるけど、
これは時間軸方向までを含めて、ある時間軸の窓の中での自己組織化を
切り出した形なんじゃねーのか、という話。

これ、形式化したいんだが、どうしよう。

705 :デフォルトの名無しさん:2008/12/19(金) 00:58:48
SOMから離れろ
海外の論文を漁れ

706 :デフォルトの名無しさん:2009/01/15(木) 19:28:54
>>704
日本語でおk?

707 :デフォルトの名無しさん:2009/01/25(日) 09:46:59
>>704
よくわからんが、時間変化というか時間軸方向でのパタンこそが、ってことかな。
俺もそれは思う。


708 :デフォルトの名無しさん:2009/03/14(土) 01:31:09
文字認識や波形からのデータマイニングに使える気がするんだけど・・・・

709 :デフォルトの名無しさん:2009/03/19(木) 00:41:14
教師有り学習と教師無し学習って手法毎に明確に分類できるわけじゃないよね?


710 :デフォルトの名無しさん:2009/03/21(土) 12:53:00
人間が曖昧な記憶をするのは、
曖昧な認識をするためじゃないのかなー。

データを信号に変えて、曖昧な記憶をさせたらどうだろう。


711 :デフォルトの名無しさん:2009/04/16(木) 15:11:26
ちょっと質問、遺伝的アルゴリズム(GA)とニューラルネットワークって違うんでしょうか?
どっかで、GAのスレがあったら教えてください。

712 :デフォルトの名無しさん:2009/04/16(木) 15:15:15
違う
http://science6.2ch.net/test/read.cgi/sim/1017102268/

713 :デフォルトの名無しさん:2009/04/17(金) 21:52:34
>>710
非論理を記憶させ、それを構築するには、それを与える人が非論理を理解
していなければ成り立たないだろ。
おまのは、そのようになったらいいな、とか、
やってみたらどうだろとか、誰でも始めに思いつくことを言っているに過ぎない。
曖昧な記憶だ?んなのは人工知能を始めて想像した数学者チューリングすら
やっていた思考実験だ、バカス。

714 :デフォルトの名無しさん:2009/04/18(土) 09:13:03
むしろ曖昧な記憶って何?
そういう研究領域ってあるの?

715 :デフォルトの名無しさん:2009/04/19(日) 08:33:32
>>712
ありがとう

716 :デフォルトの名無しさん:2009/04/25(土) 03:28:18
>>714
心理学とか?
記憶がどう変容していくかとかの実験とかやってた
凶器注目効果とかも近いかも

717 :デフォルトの名無しさん:2009/05/24(日) 18:10:08
なぜ誤差逆伝搬学習法による中間層-中間層のシナプス結合荷重を変化させると非線形の出力に対しての領域わけができるのでしょうか?

718 :デフォルトの名無しさん:2009/06/08(月) 00:08:14
>>717
自然淘汰、ダメなものが消滅、良いものが生き残る。


719 :デフォルトの名無しさん:2009/06/08(月) 00:22:42
>>714
無意識で記録される記憶、
意味にならない記憶、
無意味な記憶

無意味を情報処理する方法を脳が潜在意識として実現している。
ニューラルネットワークなどの仮想モデルの説明では、
自己組織化で自動構築されるので外部からそれを見ることも観測する
こともできない、できても意味がない。
動的に構築されるというのはそういうタイプの情報処理である。
その辺で無意味を扱えるのは科学ではない、非科学の領域だよ。
だから考える必要すらない。研究したらトンデモ研究に認定される。

720 :デフォルトの名無しさん:2009/06/08(月) 00:36:12
>717
それって、
「なぜパーセプトロンは線形分離可能なパターンしか分類できないのか?」
の裏命題だよね?

ミンスキー&パパートの「パーセプトロン」を読め、じゃあ無くて
単純パーセプトロンは結局、入出力関係を線形一次結合にしかできない
中間層-中間層があれば非線形な関係を表現できるとしか
説明しようが無いんじゃあ?

逆誤差伝播法が発明されたのでそれを実際に学習させる事が可能になったと。

721 :デフォルトの名無しさん:2009/06/08(月) 00:49:41
旨くいかないのは、ほとんどが学習で集束しないという話である。

722 :デフォルトの名無しさん:2009/06/08(月) 15:51:19
>>721
見積もりができてないだけじゃん。
そもそも規則性が無いものは学習できない。
秩序がない抽象的なものを学習させるのは無理というもの。

それ以前に学習させたか怪しいな。多層構造になると学習させるのが
単純ではないぐらい理解してないとかw

723 :デフォルトの名無しさん:2009/06/08(月) 22:14:04
抽象的も何もデータになってる以上はできるだろ
使ったこと有って教えてる?

724 :デフォルトの名無しさん:2009/06/09(火) 00:13:42
なにも分らない奴ほど短いレスをする法則

725 :デフォルトの名無しさん:2009/06/09(火) 01:17:46
でも簡潔で全てを物語ってるな

726 :デフォルトの名無しさん:2009/06/09(火) 22:02:30
だんだん短く

727 :デフォルトの名無しさん:2009/06/09(火) 23:28:24
なる

728 :デフォルトの名無しさん:2009/06/09(火) 23:43:21


729 :デフォルトの名無しさん:2009/06/09(火) 23:46:55
 

730 :真スレッドストッパー:2009/06/10(水) 12:10:30
512KBを超えました、新しいスレッドを作ってください。

731 :デフォルトの名無しさん:2009/06/10(水) 12:17:40
>でだ、ニューロンを0,1のバイナリな状態しか保持できない(1=発火)と仮定して、
発火の失敗もある。つまり1と0だけではない。

732 :デフォルトの名無しさん:2009/06/26(金) 23:10:42
グーグルで
「階層型 ニューラルネットワーク java」で検索すると出てくる
http://www.geocities.jp/retort_curry119/NN.htm
からDLできるソースってちゃんとニューラルネットワークできますか?

733 :デフォルトの名無しさん:2009/07/12(日) 19:15:20
今レポート書いてんだけど。
ニューラルネットワークって実際の脳の仕組みと同じなのかな?
詳しい人教えてほしいです

734 :デフォルトの名無しさん:2009/07/12(日) 19:35:33
同じじゃない
ニューロンとシナプスの構造を単純化したもの

735 :デフォルトの名無しさん:2009/07/16(木) 09:00:05
>>733
根本原理は用語的には同じ。というよりニューロンのネットワークだから
直訳すれば神経網、脳が神経網とは違うのか?と聞いているのと同じ。
貴方が聞いているのはコンピュータモデルでの単純化したタイプだと
734が予想&補完した返事をしているだけ。
ニューラルネットワークは単純化した部分がもっとも重要であり
主幹として機能しているが実際の脳とは学習アルゴリズムは違う
ので比較ができない。
>>732
階層じゃなくても貴方のいうニュールネットワークはできる。
しかしそれは生きた神経網を採取して部分的に成長さえて機能ができている
かを確認しているのにすぎない。
貴方が背景で考えていると予測してその意味的な「できる?」という返事なら
それはできない。理由として貴方にそれを扱うスキルがない。
貴方が思っている対象は多分、高等な情報処理であり、実験的なものではない
機能させる対象が単純モデルならNNを使う必要すらない。高等なら貴方に
そのスキルがないってこと。貴方の学習でも階層を使う必要すらない。
コンピュータで比喩すれば、現在のWindowの大型アプリを使うのではなく
電子ブロックを抜き差ししている状況だと悟ろう。

736 :デフォルトの名無しさん:2009/07/16(木) 10:32:44
入出力連続値、閾値なしのBP対応3層NNを作りましたが、
3層から多層に変えると、記憶できるパターン数は増やせますか?
3層の中間層を増やすことと同じであまり期待できないのでしょうか?

737 :デフォルトの名無しさん:2009/07/19(日) 15:29:37
>>736
既に作ったなら多層にするのは大変なことじゃないだろ?
なぜ自分で試してみない?

738 :デフォルトの名無しさん:2009/07/19(日) 15:51:20
中間層を増やすとか言う曖昧な表現してるから理解できてないんだろう

739 :デフォルトの名無しさん:2009/07/19(日) 16:47:05
いや返事もないので、すでに多層化した。

740 :デフォルトの名無しさん:2009/07/21(火) 22:26:58
それどこが難しいんだ
小学生でもできるレベルの改良だろ

741 :デフォルトの名無しさん:2009/07/22(水) 07:51:00
アソシアトロンってどうでしょう


742 :デフォルトの名無しさん:2009/07/22(水) 09:04:22
>>740
難しい?。簡単だよ。だけどその後の検証が面倒なんだ。
既にわかってることに時間かけても仕方ないからね。

743 :デフォルトの名無しさん:2009/07/22(水) 18:50:18
では最初の質問時に文献プリーズって言えば済むことをわざわざ頭の悪い質問文に変えたのは何故だ
プライドのためだけに>>739の様なレスを書く時間をかけたのは無駄ではないのか

744 :デフォルトの名無しさん:2009/07/22(水) 20:04:28
もしかして、「3層の中間層をふやす」って文章のこと?
文脈読めないとダメだね。ニューロンがだいぶ減ってるようだ。

3層の中間層のノードを増やすが正解。

745 :デフォルトの名無しさん:2009/07/22(水) 20:32:48
表情も身振りも読み取れないテキスト表現だけの世界で行間読みまくってたら何もはじまらない
おめーら雑談たのしいの?

746 :デフォルトの名無しさん:2009/07/24(金) 23:04:58
本も読まずに質問してきたオバカちゃんのくせに必死に相手を貶し自分はさも有識者であるかのような
振る舞いをするのはイタイ
レス状況から1時間に1回はスレの更新をチェックしてムキムキしながらレスしてるのが丸わかりなんだよ

747 :デフォルトの名無しさん:2009/07/25(土) 01:21:50
必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ


748 :デフォルトの名無しさん:2009/07/25(土) 06:37:25
>>741
ちらっと調べたところ、なんか普通のNNとの違いがよくわからなかった。
記憶に興味がもてたらもう一回調べてみよう。

今朝思いついたけど、夢を見たことを忘れるのは、
寝る前の記憶を鮮明にしておくためじゃないかな。とここでつぶやく。

749 :デフォルトの名無しさん:2009/07/25(土) 07:10:15
たった一行のレスに時間をかけたといったり、
一言コメントしてからおめーらといったり。
論理が破綻してるひと多すぎ。

750 :デフォルトの名無しさん:2009/07/25(土) 12:52:19
まだまだ燃料としては弱い
夏で外が暑いからといって燃料投下を止めていいと思うなよ


751 :デフォルトの名無しさん:2009/07/25(土) 19:21:36
学問でやりたいなら数学の板が適してるんだろうけど
数学理解する力がないんだろ

752 :デフォルトの名無しさん:2009/07/25(土) 21:00:56
英語と数学は壁だね。何やるにしても。

753 :デフォルトの名無しさん:2009/07/25(土) 21:14:50
ムキムキしながらって表現になんか笑ったw
なんだそれw

754 :デフォルトの名無しさん:2009/07/25(土) 21:49:35
                  さぁレスするぞーー!!
                   _
                  / jjjj      _
                / タ       {!!! _ ヽ、
    オーー!!     ,/  ノ        ~ `、  \        _
               `、  `ヽ.  ∧_∧ , ‐'`  ノ      /  `j
     ∧_∧_      \  `ヽ( ´∀` )" .ノ/    /  /`ー'    オーー!!
    ( ´∀`)  ̄"⌒ヽ   `、ヽ.  ``Y"   r '      〈  `ヽ
   / ) ヽ' /    、 `、   i. 、   ¥   ノ       `、  ヽ∧_∧
  γ  --‐ '      λ. ;    `、.` -‐´;`ー イ         〉    ´∀)    ,-、、
  f   、   ヾ    /   )    i 彡 i ミ/         / ノ    ̄⌒ヽ   「  〉
  !  ノヽ、._, '`"/  _,. '"     }    {         ノ  ' L     `ヽ./  /
  |   ̄`ー-`ヽ 〈  < _ ヽ.    /     `\      / , '    ノ\  ´  /
   !、__,,,  l ,\_,ソ ノ   /   /ヽ、  ヽ.     (     ∠_   ヽ、_, '
       〈'_,/ /   /   /  ノ    ヽ.   )     i  、      ヽ
           | |  イ-、__  \  `ヽ    {   f  _,, ┘  「`ー-ァ   j
        l.__|   }_  l    \ \   |  i  f"     ノ   {  /
        _.|  .〔 l  l    ノ  _>  j  キ |  i⌒" ̄    /  /_
        〔___! '--'     <.,,_/~  〈   `、ヾ,,_」       i___,,」
                          `ー-‐'

755 :デフォルトの名無しさん:2009/07/26(日) 14:46:56
階層型ネットワークで、出力層の出力結果Xを量的データとして出したい時は
シグモイド関数のα(ゲイン)の値を小さくして、
(X−Xmin)/(Xmax−Xmin)と基準化させて出力。
出力結果を質的データとして出したい時は
αの値を大きくして(ほぼ?)0,1の出力をする。
という理解で大丈夫ですか?

756 :デフォルトの名無しさん:2009/07/27(月) 06:21:43
返事もないので、すでに自己解決した。

757 :デフォルトの名無しさん:2009/10/28(水) 03:41:16
>>755
やってみてから考えろ。

758 :デフォルトの名無しさん:2009/10/28(水) 07:39:54
SOMは元空間のトポロジーを保存する、と言われますが、証明されてますか?


759 :デフォルトの名無しさん:2009/10/28(水) 15:25:50
>>758
やたら挑戦的なweb記事が見つかった
http://www.mindware-jp.com/basic/faq2.html

760 :デフォルトの名無しさん:2009/11/20(金) 08:41:25
>>759
どうもです。
長らく悪菌でした・・・

面白いですねw
もっともだと思うこともあれば根拠なき断定ではというのもありますね。
ところで、やっぱりSOMって便利だけれど若干うさん臭さがある感が否めないと思うんですが、
アカデミアではどう受け止められているんでしょうか?


761 :デフォルトの名無しさん:2010/01/16(土) 03:17:11
くだらんおべんちゃらはよせ

762 :デフォルトの名無しさん:2010/01/19(火) 19:14:55
http://www.natureasia.com/japan/highlights/details.php?id=570

763 :デフォルトの名無しさん:2010/01/21(木) 21:10:58
話題がねーなー


764 :デフォルトの名無しさん:2010/02/01(月) 04:53:50
多層NNのbp法にて関数近似をしようとしているのですが、教師データ(学習データ)が
必要以上に多いとき、近似が成功しなかったり時間がかかりすぎたりするので、
前処理にてデータの選択を行いたいのですが、良いデータの選択方法はありますか?

関数の特徴量を上手くとらえたデータの抽出ができれば良いかなと思うのですが。


765 :デフォルトの名無しさん:2010/02/01(月) 20:00:53
肉眼で見分けつかないような部分はバッサリいっちゃっていいんじゃねーの
どうせ基本的アルゴリズムのNNじゃそのあたりの差は出ないだろうし

766 :デフォルトの名無しさん:2010/02/01(月) 22:43:37
私自身、はじめは目視でやっていたのですが、
目視ではなく、プログラム側で自動で判別できるような条件
等があれば良いかなと思うんですがどうですか?

初めに思いついたのが、学習するデータ点を半分にして、2段階で学習する
方法でした。でも、それだと、例えばシンク関数、サイン関数等の波のある
関数で、谷間の間の部分の教師データが採用されない等の問題がありました。

そこで、関数の形になんらかの関係のあるデータの選択方法をプログラム側で
制御できないかなと思い質問しました。どうでしょうか・・・?


767 :デフォルトの名無しさん:2010/02/02(火) 21:57:28
特徴量がうまくとらえられていないデータは似たような位置が似たような値をとっているはず
多すぎるデータを間引くのならそういう場所は削って良いね
同じ位置の値が似てるかどうかはエントロピーでも見れば判るかな

768 :デフォルトの名無しさん:2010/02/03(水) 07:11:27
とりあえず、すべてのデータに大して隣り合う点との距離について計算して
その距離があるしきい値以上ならば学習データとして採用することにしました。
これで平坦な部分(関数全体からみて)についてはデータを少なくとることができたのかな?
変化の激しい部分はデータを多くとれるはず。
(データをある程度しぼって学習して、学習が進んでからデータを追加する仕様で
プログラムを作成しています)

>>767
近い位置のエントロピーを見てみるということですか。
うーんと・・・エントロピーってなんでしたっけ?平均情報量?
大学でやったような気がしますが教科書あげちゃったな…
この場合、具体的に何を計算すればいいのかな。

769 :デフォルトの名無しさん:2010/02/03(水) 07:15:39
ああ、表現が不味いかも上の"距離"というのは入力がx、出力がf(x)のときのf(x)のことです。
作成したプログラムは3次元の関数近似が目的なのでx,yの入力に対してのf(x,y)の値を
参考にしていますが…
f(x,y)の値が隣のデータと離れていればいるほど、付近では関数の値が急に変化していると考えられるので
先に学習することでのちの学習がスムーズに行くのでは?と考えたためです。



770 :デフォルトの名無しさん:2010/02/06(土) 23:15:03
手書き文字のサンプルを集めたいんでけど
どうすればいいかな?
HTMLで作るとか?

771 :デフォルトの名無しさん:2010/02/07(日) 01:10:28
>770
昔自分で用意したときはペイントで描いてから拡大表示してデータを作った。
5人ぐらいでやればみんなが違うパターンのを得られて楽でした。

そんなに精度要らないなら自分で作ったほうがはやいかも。


772 :デフォルトの名無しさん:2010/02/07(日) 18:22:43
卒論NNやれって言われちゃったよ・・・
なにやればいいんだ?

773 :デフォルトの名無しさん:2010/02/07(日) 22:31:07
>772
時間がかなりかかるから今からじゃあ無理だと思うけど。
ああ、来年発表ですか?それなら

NNっても卒論にするならいろいろあるからテーマが決まってないなら
いくつか論文読んでからまたどうぞ。

774 :デフォルトの名無しさん:2010/02/10(水) 19:59:05
ニューラルの論文集みたいなの無い?

775 :デフォルトの名無しさん:2010/02/10(水) 20:33:42
うーん…多分NNやれって言われたならそれなりに準備してくれると思いますが、
先生に論文どれを読んだらいいか聞いてみたほうがよいかもしれません。

論文集をまとめてあるサイトは知りませんが検索したらいくらでもでてくると
思いますよ。


776 :デフォルトの名無しさん:2010/02/10(水) 20:38:31
googleにgoogle scholarっていう学術論文検索できるやつがあるのでここから
http://scholar.google.co.jp/schhp?hl=ja
探せばいいかな。
でも、ニューラルネットワークで検索しても多すぎるし古いので、
例えばパターン認識とかリカレントニューラルネットワークとか誤差逆伝播法とか
そのへんも検索に入れるといいかもしれませんね。
あなたのところの卒論のレベルは知りませんが、学部生ならこのへんの論文を参考に書けば十分だと思いますが。


777 :デフォルトの名無しさん:2010/02/11(木) 01:56:21
混合ガウス分布ってもう実用に使えるの?
共分散の自動調節が変だった記憶あるんだけど

778 :デフォルトの名無しさん:2010/02/11(木) 14:23:18
文字認識の精度が上がらないよー

779 :778:2010/02/11(木) 15:12:01
ただ、手書きの文字を入力にしてるからかな?
手書き文字からパターンを抽出したいんだけど、どうやればいいかさっぱり分からん・・・

780 :デフォルトの名無しさん:2010/02/14(日) 19:46:36
>778
プログラムあってるのか?
あと、文字数を減らせばいいんじゃないか?
とりあえずAとBとCの3つぐらいからやれば…

入力するパターンもAが5つ、Bが5つ、Cが5つとかにするんだぞ
それぞれのパターンで書き方を少し変えればいい。

あともう少し実験の条件を晒してくれ…
入力してる文字とか…

781 :デフォルトの名無しさん:2010/02/14(日) 20:43:38
特徴量のとり方はどうやってる?

782 :デフォルトの名無しさん:2010/02/15(月) 01:21:30
>>780
ありがとう、認識文字は0〜9で、
0〜9の入力に対してそれぞれ200回更新して、それを200回ループ回してるんだけど、
3と8と2がうまく学習できない。
てか、最後に学習した8になっちゃう感じ
プログラムは↓
for(i=1 ; i<200 ;i++)
{
for(patarn=0 ; patarn<10 ; patarn++)//パターンをそれぞれ一つずつ学習
//教師信号割り当て
  //入力割り当て
for(j=1 ; j<200 ;j++)
{
//入力誤差、出力計算
}
}
}
こんな感じ、


783 :デフォルトの名無しさん:2010/02/16(火) 17:38:16
>782
見た感じ間違ってない気がするな。
数字の認識は3,8,2が上手く学習できてないのはなんだろうな
中間層の素子の数が足りないのかな。
もしくはこのプログラムは何回かやってみた?更新回数を増やすとか、学習係数の値の変更とか。

たしか、自分がやったときは文字の線が細いところを太く書いたら上手く分離できるようになったと思う。
とくに数字なら斜めの部分を太めにやってくれれば違うかもしれない。
あんまり似てると上手く分けられないからあえて違うように文字を書くのも最初のうちはありかも

あと、0〜9を0から順番に学習しているから8が最後になっているみたいだが、これに関して
順番を変えることで結果はどうなるのか試してみたらどうかな。
(9から1に学習したら2になるかどうか?)

784 :デフォルトの名無しさん:2010/02/24(水) 23:35:08
たまにはレスするか・・・
ニューラルで指紋認証やりたいんだけど
指紋そのまま抽出するより、特徴を抽出したほうが良いよね?
指紋の特徴って何がある?

785 :デフォルトの名無しさん:2010/02/25(木) 07:00:32
特徴点


786 :デフォルトの名無しさん:2010/04/02(金) 09:58:40
パーセプトロンで作ってみました
http://www4.cncm.ne.jp/~tsuri/per/aaa.wmv


787 :デフォルトの名無しさん:2010/04/11(日) 15:46:09
hebb学習ってバックプロバみたいな正解と出力の関連付けが出来ないけど
出来るようにする方法を思いついた
ちょっと実験してみよう

>>784
特徴っていってもいろいろあるからな
角を検出したり直線を検出したり曲線を検出したり
画像処理スレの方が詳しい人が居るだろう

788 :デフォルトの名無しさん:2010/04/11(日) 18:42:38
自分が使う不出来な構造のNNの為に特徴抽出の
お膳立てしてあげようとしたら
その前処理段階で判別に十分な特徴出ちゃったりなんて話も

789 :デフォルトの名無しさん:2010/04/11(日) 23:15:57
音声を入れたら文字が出力されて
文字を入れたら音声が出力されるNNを作ろうと思うんだけど
これって研究対処になる?

790 :デフォルトの名無しさん:2010/04/11(日) 23:30:42
>>789
そりゃなるでしょう。
特に英語なら綴りと発音の関係がややこしいし。

音声認識は昔からNNの研究対象分野だし。

ただ、DecTalkとか言う先行研究がすでに有ったような。

791 :デフォルトの名無しさん:2010/04/12(月) 00:00:00
卒論のテーマ考えてるんだけど
何やればいいかわからん
誰か助けて

792 :デフォルトの名無しさん:2010/04/12(月) 00:29:43
興味があること

793 :デフォルトの名無しさん:2010/04/12(月) 03:37:31
NNって別にすごいことしてないしな
何をやってるのか解析しようと思えば出来るだろう
いや実際数式化しようと思えば出来ると思うがな
特にバックプロバケーションタイプなんて
もろ教師信号からパラメータの中央値を糞無駄な計算を繰り返して
導き出して、しまいにはそのパラメーターを使いまわし
しかも使う人間も馬鹿だから全部のパラメータが重要だと思って
無駄計算を繰り返してるだろ

794 :デフォルトの名無しさん:2010/04/18(日) 21:12:18
連想記憶モデルって何の役に立つんだ?

795 :デフォルトの名無しさん:2010/04/20(火) 16:59:00
SVMは単に2値に分離するだけだけど
NNは無限個に分離できる可能性がある
可能性があるというのは構造や規模次第って意味で
ただいろいろ不利な点がある
追加学習が出来ない
適切な構造が分からない
計算に時間が掛かる
いろいろ解決法は考案されてるものの誰もそのアイデアを公表しない
そして秘密にして利益を守ろうとする割にはアイデアがしょぼいw
だから発展しないし利用出来るだけの材料がまったく揃ってない

796 :デフォルトの名無しさん:2010/04/20(火) 17:16:59
例えば
XOR問題を空間であらわすと

SVMは
○|
-----
 |○

NNは
□|
-----
 |□

みたいな感じだな
SVMは角が無いんだよ


797 :デフォルトの名無しさん:2010/04/21(水) 00:03:08
ニューラルネットで実用的なモデルって何?
何に需要あるの?これたちの悪い罰ゲームなの?

798 :デフォルトの名無しさん:2010/04/21(水) 01:44:12
構造をいちいち検証せずとも自動的に決定してくれて
学習に何週間も時間を費やさずともよくて
フリーのライブラリが各言語に標準に近い状態で実装されてれば
かなり需要があると思うが
現状ではNNを利用するには目的にあったNNを発明する所から始めないといけないという
だから作ったものは自分にしか需要がない

799 :デフォルトの名無しさん:2010/04/21(水) 23:26:35
多層のフィードフォーワードとリカレントの特徴の違いを教えてください

800 :デフォルトの名無しさん:2010/04/22(木) 07:53:31
フォーワードは
BPのように入力から出力の一方向接続があって
教師信号で逆方向の重みを計算する
この時に出力の計算式と修正の計算式が違う

それを統合してしまおうというんおがリカレント
出力層と中間層は入力層に接続されていて
それぞれの出力計算と重み修正の計算式は常に同じ
しかも線形だから実に簡略化されたもの

でFA?

801 :デフォルトの名無しさん:2010/04/24(土) 00:01:01
http://www1.axfc.net/uploader/Sc/so/106271.zip
ダウンロードパス: im

NNの概念とか無視してプログラム的に結局こういうことをやってんでしょってのを考えてみた
連想記憶用メモリみたいなもんです

特徴としては
追加学習が出来るのと強化学習が出来る
強化学習はまだ実装してない
結果を取り出すのは入力桁数ステップでいいからかなり高速

そしてアルゴリズムは教えないw

802 :デフォルトの名無しさん:2010/04/24(土) 04:49:56
windowsを消し去って初めて後悔した



803 :デフォルトの名無しさん:2010/04/24(土) 06:41:49
ニューラルで何か新しいことを研究にしたんだけど
何も思いつかんわ
誰か知恵を貸して

804 :デフォルトの名無しさん:2010/04/24(土) 07:47:15
株価予測、文字識別、ニューロ制御、TSP、
グリッドコンピューティング、803より賢い無脳
は、何も見てないけど、既にたくさん研究されているだろう

805 :デフォルトの名無しさん:2010/04/24(土) 16:35:21
http://fx.104ban.com/up/src/up16120.png

XOR問題を解いてみた

806 :デフォルトの名無しさん:2010/04/24(土) 16:36:37
>>801のやつね

807 :デフォルトの名無しさん:2010/04/24(土) 17:17:21
誰か文字認識のプログラムちょうだい!

808 :デフォルトの名無しさん:2010/04/24(土) 19:13:27
>>801ので強化学習が出来るってのを実験したいんだけど
どういうアプリ作ったら分かりやすいかね?
テスト用なんであんまり大規模なのは勘弁

809 :デフォルトの名無しさん:2010/04/25(日) 19:58:04
ちなみに>>801の何が普通のNNと違うか見てもらえばわかるけど
赤が1.0青が0.0を学習させてるんだけど
しばらくあるポイントの情報を学習させた後にポイントを生成しなおして切り替えても
しばらくはもともと学習してたポイントの記憶を保持してる
だから追加的に学習していっても古い記憶を保持したまま新たな記憶を覚えていく
時間がたつと古い記憶は薄れていって同じ学習入力が無いと消える
この時間は調整可能
だからノイズの学習が行われても簡単には過去の記憶は消えない

810 :デフォルトの名無しさん:2010/04/25(日) 22:28:35
連想記憶は自己相関での結合行列に重みを付けしての誤り訂正とか、
相互相関で記憶したパターンを順番に生成するぐらいしかないんだと思っていた

この分野でテンプレに出てきそうな書籍ってないの?

811 :デフォルトの名無しさん:2010/04/25(日) 22:29:17
アルゴリズム教えて!

812 :デフォルトの名無しさん:2010/04/25(日) 22:35:39
この分野で卒研着手するとなると、使用する言語って何がいいんだ
matlabとかR?Java,c++?
boostとgslかじって、c++が幸せそうな気がしているけれども

813 :デフォルトの名無しさん:2010/04/25(日) 23:00:20
俺はC++
行列使うならmatlabじゃん?

814 :デフォルトの名無しさん:2010/04/26(月) 03:05:28
>しばらくはもともと学習してたポイントの記憶を保持してる
どうやってるの?

815 :デフォルトの名無しさん:2010/04/26(月) 21:10:39
>>814
予備知識もなにもなかったんだが
SOMってのがかなり近いみたいだ
根本的にアルゴリズムは別物だけど
発想が似てる

816 :デフォルトの名無しさん:2010/04/26(月) 21:20:14
入力を次元で考えたのがまったくSOMと同じだった
中身はかなり違うけど
SOMは分類するだけだけどこれは学習するからね
むしろ逆に分割するとも言える

817 :デフォルトの名無しさん:2010/04/26(月) 22:17:30
入力が次元なだけに増えると指数関数的に処理速度が低下するのが欠点で
今それで悩んでたんだけど
こいつの記憶保持のメカニズムがBPに応用出来そうな気がするんだよな

818 :デフォルトの名無しさん:2010/04/28(水) 00:26:57
SOMのユークリッド距離を使うアイデアはなかなかいいですね
計算を単純化出来る
その方法で重み修正をやるようにしてみたけどうまくいった
記憶保持機能もそのまま
SOMとは計算式がぜんぜん違うけども

819 :デフォルトの名無しさん:2010/04/28(水) 12:49:15
http://www1.axfc.net/uploader/Sc/so/107963.zip
パス im

とりあえず最新版
学習方法をランダムポイントにしたので遅いけど変化が分かりやすい
一旦XORを学習させてランダムで上書きしようとしたらかなり抵抗するのが分かる

820 :デフォルトの名無しさん:2010/04/28(水) 23:42:52
こんな場所で実行ファイルだけアーカイブしても誰も実行してくれないんじゃ…

821 :デフォルトの名無しさん:2010/04/29(木) 03:10:54
ソースは公開しないけど
まだバグとか改良の余地があるから
設定出来るパラメータも単純化したいし
そのうち組み込みで使えるようにライブラリはアップするかも

822 :デフォルトの名無しさん:2010/04/29(木) 03:15:20
専門家でもないし学生でもないし
たまだまNNに興味があったプログラム好きのど素人だから
公開したらアイデアぱくられて終わりとか悲しすぎるしw

823 :デフォルトの名無しさん:2010/04/29(木) 03:54:26
たいしたアイディアでも無いくせにな


824 :デフォルトの名無しさん:2010/04/29(木) 04:15:11
まあ、過疎ってるよりはいいかな

825 :デフォルトの名無しさん:2010/04/30(金) 17:47:48
今年4年の学部生です
ニューラルネットワークでルービックキューブの解法を探す研究をしようと思うのですが
実現可能でしょうか?出来そうかだけ教えてください

826 :デフォルトの名無しさん:2010/04/30(金) 17:51:41
うん

827 :デフォルトの名無しさん:2010/04/30(金) 17:53:41
Yes.

828 :デフォルトの名無しさん:2010/04/30(金) 22:41:04
>>826-827
単にNNでできるかできないかで言えばそうだろうけど、研究可能ですかって意味では車輪の再発明じゃね?
既知を研究するもまた研究という人もいるだろうけどさ。。。


829 :デフォルトの名無しさん:2010/04/30(金) 23:31:32
でも、難しいと思うよ

830 :デフォルトの名無しさん:2010/05/01(土) 00:58:43
http://wrongway.org/cube/solve.html

831 :デフォルトの名無しさん:2010/05/01(土) 01:09:02
ニューラルでやってんの?それ

832 :デフォルトの名無しさん:2010/05/01(土) 02:36:02
ニューラルでやったらそこそこの研究になるんじゃない?

833 :デフォルトの名無しさん:2010/05/01(土) 03:12:30
>>830のソース読んでNN使えば(多分)改善する箇所思いついた
やってみよっと

834 :デフォルトの名無しさん:2010/05/01(土) 08:21:13
解法って最短解法って意味ならNNじゃ無理だよ
時間はともかく必ずいつかは解ける方法を学ばせるのは可能だけど

835 :デフォルトの名無しさん:2010/05/02(日) 01:12:01
なんで最短は無理なん?

836 :デフォルトの名無しさん:2010/05/02(日) 01:29:32
ってかNNでできるのか?
構造とかどうすればいいんだ?
俺には全然わからん


837 :デフォルトの名無しさん:2010/05/02(日) 03:26:20
ルービックキューブのルール通りに動くようにNNを構築するのは難しくね?
ばらばらの色の配置→6面完成だけならできると思うけど

838 :デフォルトの名無しさん:2010/05/02(日) 09:13:29
NNを神格化してるのか知らないが
ただの連想記憶装置だから
0.0〜1.0のアナログデータを保存するだけだから
0.1区切りなのか0.01区切りなのかはNNの規模で決まるだけで
実際に表現出来る範囲には制限がある
ルービックキューブには何億通りのパターンがあって
それを全部記憶するのは無理だから無理
どんな並びだろうと一定の法則があって
簡単に算出出来る規則性があるなら可能だけど

839 :デフォルトの名無しさん:2010/05/02(日) 13:24:15
表面的に知ってるだけだから
使い方・使い所がわかってないんだなぁ


840 :デフォルトの名無しさん:2010/05/02(日) 16:24:31
NNは脳の構造を真似して作ったものだけど
研究していくうちに実は数学的にクラスタリングする機能しかないことが分かって
だったら無駄な計算なんかしないで直接的に数学問題を解けばいいじゃない
ってんで生まれたのがSVMとかで
最初は主に顔画像を検出したりする画像処理に利用しようとしてたけどうまくいかない
なぜなら数学的に問題を解いてもなおプログラム的には速度が遅いし
適切な記憶容量が計算出来ないからだけど
それで画像処理分野ではSVMなんかで統計を取る前処理として
データ構造を統計上問題の無い方法で単純化しようという研究が行われて
光源によって色が変わるから色は無視しようとか、角度によって分布が変わるから
方向は無視しようってな具合でどんどん条件を絞り込んでいったら
結局数学的にクラスタリングする機能を1つづつ専門分野に適用していってるだけだったというオチ
万能なNNを作ろうとすれば結局は数億規模のデータを処理出来るコンピュータが必要だという
結論に至っただけですよ

841 :デフォルトの名無しさん:2010/05/02(日) 16:29:31
そして顔画像検出の有効な利用法を発明したんだけど
誰か研究してみたら?
心霊写真を見つけられるw

842 :デフォルトの名無しさん:2010/05/02(日) 20:34:35
ニューラルネットってなんなの?
SOMもリカレントもボルツマン機械もぜんぶNN?
それとも、多段のフィードフォーワードのみのこと?

843 :デフォルトの名無しさん:2010/05/02(日) 20:44:19
>>838
マッカロックピッツがどーこーの、1,-1をつかうモデルは何なんだ


844 :デフォルトの名無しさん:2010/05/02(日) 22:00:40
>>842
定義としたらNNの仲間なんじゃないの?
一応ニューロンという概念と抑制性を利用してるわけだから
ただ発明した人はもう数学的に問題を解いただけだから
個人的にはニューロンとかいう言葉を使うのもどうかと思うけど
SOMは次元データを2次元に置換する公式を解くだけのものだし
リカレントはBPに時間遅延の概念を入れただけ
本来のニューロンのネットワークという意味でのNNとはどんどん離れていってるw

845 :デフォルトの名無しさん:2010/05/03(月) 02:58:10
刻々と変化するネットワークをエネルギー関数を用いて最適化するのもNNって言うの?

846 :デフォルトの名無しさん:2010/05/07(金) 23:15:02
どうやってルービックの解法をNN探すの?
最適化だからホップフィールドでやんの?

847 :デフォルトの名無しさん:2010/05/08(土) 01:53:47
俺も教えて欲しい

848 :デフォルトの名無しさん:2010/05/08(土) 11:15:00
それが分かった時点で研究が完了する

849 :デフォルトの名無しさん:2010/05/08(土) 16:54:15
俺の出した結論は無理

850 :デフォルトの名無しさん:2010/05/08(土) 19:32:49
浅いねぇ

851 :デフォルトの名無しさん:2010/05/08(土) 20:50:25
無理なんて言葉は使わず非常に困難とかにしとけ

852 :デフォルトの名無しさん:2010/05/09(日) 06:05:30
で、このスレにできそうなやついんの?

853 :デフォルトの名無しさん:2010/05/09(日) 10:23:15
俺の考えが浅いのかお前らがNN理解してないのか……

〜INPUT〜
キューブは6面、1面には9パネル
操作はまわすことにより9パネルのうち3パネルが4面に関して入れ替わる

〜探索終了条件〜
6面の9パネルがおのおの同じ色になること


初期状態は探索終了状態のn手手前の状態
INPUTの操作を逐次記録する

典型的な探索問題だろ? むしろこれができなかったらNNなんて何ができるんだよ。


854 :デフォルトの名無しさん:2010/05/09(日) 10:30:38
どうやって探索するの?


855 :デフォルトの名無しさん:2010/05/09(日) 10:32:48
どうやって状態が遷移するのかが思いつかない

856 :デフォルトの名無しさん:2010/05/09(日) 17:24:27
>>853
それでできるかもしれないけど記憶量が多すぎる
TSPみたいにエネルギー関数を使って勝手に最適化する方法は無いかな?

857 :デフォルトの名無しさん:2010/05/09(日) 18:30:57
っ【連想記憶】
本なんかによっては別称かもしれん


858 :デフォルトの名無しさん:2010/05/10(月) 14:29:15
ルービックキューブをNNでやるってのは
ルービックキューブに一定の解法の公式が存在することを証明する行為と同義でしょ
NNは関数近似なんだから
わざわざNNでやってみて試すことじゃないと思うけど

無理だけど、どうしてもやってみたいというのなら
まずは何億通りのパターンを一括で学習させるのは不可能だから
追加的に学習させるNNを作るのが先になるだろう
その時点でもう研究課題として成立しそうだけどw

859 :デフォルトの名無しさん:2010/05/10(月) 14:54:34
ずっと俺のターン!なオセロやチェスと考えるんだ。

チェスなら参考論文とかでてくるだろ。


860 :デフォルトの名無しさん:2010/05/10(月) 15:49:42
>>858
ハズレ
>>859
正解

861 :デフォルトの名無しさん:2010/05/10(月) 16:17:18
>>859
オセロやチェスは置くところ間違えてもゲーム終了するけど
ルービックキューブは終了しないから無理

862 :デフォルトの名無しさん:2010/05/10(月) 20:00:16
じゃあ連想記憶じゃできないの?

863 :デフォルトの名無しさん:2010/05/10(月) 22:58:18
>>862
どんな風に解くんだ?
初期配置のパターンを結合行列にでも記憶させて、極小値でも探すのか?
キューブはどうやって回すんだ

864 :デフォルトの名無しさん:2010/05/11(火) 01:09:05
俺が考えたのは、まずエネルギー関数を作って
初期配置から、次の状態になりえる状態を列挙し、
列挙した中で、エネルギー関数が一番小さい状態に一つ決めて、
それを繰り返す方法じゃ無理かな?

これだとエネルギー関数しか使わなくて、閾値も結合荷重もシグモイドも使わないからNNといえるか
わからんけど

865 :デフォルトの名無しさん:2010/05/11(火) 02:03:33
>>864
正解

866 :デフォルトの名無しさん:2010/05/11(火) 02:06:39
NNでできそうだけどな
どうすればいいか分からんけど

867 :デフォルトの名無しさん:2010/05/11(火) 02:22:16
>>864
NN使ってもできるんだけどね
使うメリットとデメリットどっちが大きいかは知らないけど


868 :デフォルトの名無しさん:2010/05/11(火) 02:27:45
>>867
概要だけでも教えてくれ
なんかやってみたくなくなった

869 :デフォルトの名無しさん:2010/05/11(火) 04:29:50
連想記憶ですべてのパターンを記憶する以外にNNで実装する方法は?

870 :デフォルトの名無しさん:2010/05/11(火) 04:51:07
>>864
NNじゃないね それじゃただ統計取ってるだけだw

871 :デフォルトの名無しさん:2010/05/11(火) 04:55:16
閾値と重みを使って、ルービックキューブのルールどおりに状態遷移しないと駄目・・・
うーん難しい
これは立派な研究になるんじゃない?

872 :デフォルトの名無しさん:2010/05/11(火) 05:00:31
そうか・・・無いなら作ればいいんだ・・・ルービックキューブのルールどおりに振舞うNNを・・・

873 :デフォルトの名無しさん:2010/05/11(火) 05:33:26
>閾値と重みを使って、ルービックキューブのルールどおりに状態遷移
こんなのにNN使わん


874 :デフォルトの名無しさん:2010/05/11(火) 05:37:04
NNでできないってこと?

875 :デフォルトの名無しさん:2010/05/11(火) 05:45:36
何が?

876 :デフォルトの名無しさん:2010/05/11(火) 05:48:40
>>875
NNでルービックキューブの解法を見つけること

877 :デフォルトの名無しさん:2010/05/11(火) 06:16:51
>>861
オセロは何をしても基本60手以内で終わるけど、チェスは相手次第だよ。


一部の人は何かムダに難しく考えてないか?

主な条件は>>853で書いた。

終了状態をf(n)とするなら開始状態はf(0)で、解くまでにn手掛かる。
NNで行うのはf(N-1)からf(N)を導くこと。

学習としては
・ある地点では不可能な操作を導いた場合は重みを変更する
・ある地点の値aがそれ以前の値Aと一致した場合、それは前に進んでない操作なのでAからaまでの操作の各々に対して重みを変更する
・f(0)に到達した場合はそれに至った操作の各々に対して重みを変更する
辺りで。普通にBPでいいんじゃね? 強化学習辺りを調べるといいかも。

NNに関する研究って意味では車輪の再発明以上のものにはならないはずだけど、研究したいなら俺には止める権利も義務もない。まぁがんばれ。


っていうかこれどこかの研究室の学生の春休みの宿題なんてオチはないよな?


878 :デフォルトの名無しさん:2010/05/11(火) 06:46:15
>>877
躓いているのはそういうレベルの話じゃないと思うよ。
単純に何を入力したらいいのかわからないとか、教師信号をどうやって
取得したらいいのかわからないとか、そもそもNNがなにか分からないとかw
そんな気がする。


879 :デフォルトの名無しさん:2010/05/11(火) 07:09:06
>>853
まわすと4面の12パネルに加えて、
回したパネル行(列)の側面も90°回すと思ったんだけどあってる?
回転させて意味あるパターンは4通りだっけ


880 :デフォルトの名無しさん:2010/05/11(火) 07:16:13
>>877
それはルービックキューブの解法が分かってる時、次にどうすればいいかNNで学習させてるだけで
やりたいのは、初期配置を入力したら完成までの手順を見つける一連の操作をNNで実装したいんじゃないの?
NNで扱えるかは別として

881 :デフォルトの名無しさん:2010/05/11(火) 07:20:59
ちなみに「ルービックキューブ AI 解く」でぐぐった結果、20手あれば解けることが証明されてるそうなので20手以上掛かる操作はアウトと教えてもいいだろうね。

読み込んでないからAIが具体的に何を使ったかまではわからん。論文検索できる人は論文を当たればでるんじゃないかな?


882 :デフォルトの名無しさん:2010/05/11(火) 07:26:23
3x3の学習パターンから、NxN面を解くとかダメポ?

883 :880:2010/05/11(火) 07:29:47
説明が分かりにくかったかもしれない
>>877のように説明すると

f(0)は初期状態
f(N)は終了状態(6面完成)

まずf(0)を入力する、すると
f(0)→f(1)→f(2)→・・・f(N)
のうように完成までの手順が見つかる
これをNNで作るってこと

884 :デフォルトの名無しさん:2010/05/11(火) 08:02:27
>>883
強化学習とか連想記憶とかキーワードあげたろ? 作ればいいじゃん。


ちなみに「ルービックキューブ AI 解く」でぐぐった結果、
AIとは無関係にルービックキューブの最速解じゃないけど解法自体はでてきた。


885 :デフォルトの名無しさん:2010/05/11(火) 12:11:52
>>877
だから
f(N-1)からf(N)を求めることがすべてNNに向いてるわけじゃないんだって
全パターンと次の手を完全に記憶するんだったらただの統計データベースなの
リュービックキューブのパターンを全部NNに入れ込もうとしたら物理的に
完全なデーターベースを作るのと同じ容量が必要になるの
NNでやるってくらいだから当然この容量を極小に削ることを考えないといけないの
そうするとほとんどのパターンは正確に記憶できないの
だから無理

886 :デフォルトの名無しさん:2010/05/11(火) 12:22:22
>NNでやるってくらいだから当然この容量を極小に削ることを考えないといけないの
ここダウト。それは>>885が勝手にNNはそういうものにしなくてはいけないって思い込んでるだけ。

今回の話はあくまでルービックキューブをNNで解くって話でしかない。話そらすな。
はっきり言ってNNを利用する必然は無いし、
NNがこの問題を解くのに最適だなんてことはこのスレの人間は誰も思っちゃいないわけよ。


いわば練習問題。


887 :デフォルトの名無しさん:2010/05/11(火) 15:49:14
>>886
全部記録したらただの統計データベースだって
「連想」記憶じゃなくなるwだからNNではないw

888 :デフォルトの名無しさん:2010/05/11(火) 15:55:23
連想じゃなきゃNNじゃないっておめーXOR解かせた事ないのか

889 :デフォルトの名無しさん:2010/05/11(火) 15:58:39
俺が思うに連想記憶じゃアルゴリズムで解かせてるのと同じになる
ホップフィールドネットワークでルービックキューブ解けないかな?

890 :デフォルトの名無しさん:2010/05/11(火) 19:32:58
NN (正確には ANN) の問題意識は,単に NN で何ができるかだけではなく,
NN の研究を通じて人間の(生体の)NN がどういうメカニズムで動いて
いるかを解明することにある
これを忘れてはイカン

891 :デフォルトの名無しさん:2010/05/11(火) 19:50:18
巡回セールスマン問題が解けてルービックキューブが解け無いなんてことないでしょ
どうするかは知らんけど

892 :デフォルトの名無しさん:2010/05/11(火) 21:31:01
>>888
XORが連想に見えないお前があほなんだ
11=0なのは例えでよく使われるだけで
実際には0.9 0.9 = 0.1 みたいなものも包括してるんだ


893 :デフォルトの名無しさん:2010/05/11(火) 23:11:38
NNの分離能力が0.9 0.9 = 0.1 みたいなものも包括してる事と
XORが連想でないこととは関連性が無い

894 :デフォルトの名無しさん:2010/05/11(火) 23:25:12
>>893
XORが連想じゃないって言ってるのは888だろw
なんで連想記憶問題によくXORが例示されるのか分かってないのかなw
一定のパターンを記憶出来ることを証明するためじゃないぞw

895 :デフォルトの名無しさん:2010/05/11(火) 23:37:03
連想記憶ってのはようは
例えば整数値1....10000なんてのがあったらこれを00〜0.1に置き換える問題で
ただし尺度は可変だからn/10000なんて単純な式じゃない
例えば0.3〜0.4は200〜1000だけど0.4〜0.5は1000〜1010なんてことが起こせる関数の総称だよ
XOR問題は特殊でこれにさらに前後入れ替え作用まで引き起こせる関数の実証に使われる

ただのデータベースはn/10000だからNNじゃない

896 :デフォルトの名無しさん:2010/05/11(火) 23:50:07
>>891
そりゃ解いたのが誰だかしらないが解いた気になってるとしたら相当あほなんだろ
気づかずにただ道順の総パターンの記憶装置を作っただけだと思うがね

897 :デフォルトの名無しさん:2010/05/12(水) 00:18:18
>>896
いやおまえが馬鹿だ
解法あるのにさ

898 :デフォルトの名無しさん:2010/05/12(水) 01:43:10
>>897
総当たり以外に解法があるのか?まじで?教えてw

899 :デフォルトの名無しさん:2010/05/12(水) 01:47:09
>>897
もしそれが本当なら最短経路探索にも解法が存在することになって
これはかなり実用的なものだぞ

900 :デフォルトの名無しさん:2010/05/12(水) 01:55:17
「解法」って何の事なんだろうね


901 :デフォルトの名無しさん:2010/05/12(水) 01:58:12
>>900
知らないが、総当りで得ものはNNではないといい続けてるから
>>897の言う解法はそういう意味ではなく、純粋に多項式で解く方法を意味して言ってるんだろ思ったんだが
アルゴリズムを高速化しただけの近似解法はただの総当たりなんでこれも違うだろうし

902 :デフォルトの名無しさん:2010/05/12(水) 01:59:08
総当りでやるものは

903 :デフォルトの名無しさん:2010/05/12(水) 02:40:49
ホップフィールドで、巡回セールスマン問題は解ける(もちろん、決定的な解じゃなく、総当たりで)
ルービックキューブはNN使って総当たりで解け無いの?

904 :デフォルトの名無しさん:2010/05/12(水) 02:53:22
キューブの解法
http://www.google.co.jp/hws/search?hl=ja&q=%E3%83%AB%E3%83%BC%E3%83%93%E3%83%83%E3%82%AF%E3%82%AD%E3%83%A5%E3%83%BC%E3%83%96+%E8%A7%A3%E6%B3%95&client=fenrir&adsafe=off&safe=off&lr=lang_ja

NNとは本来多項式等でもしかしたら解けるかもしれないものの、どんな多項式で解けばいいのか分かっていない対象をNNによってブラックボックス化することで多項式の代わりとするもの。
それ以上のことをNNに求めてる人は夢見がちなのかただの無知なのかどっちよ?
極端な話、一部の人が言ってる「ただのデータベース」です。
NNスレでNNの定義から始めないと各々の認識が違いすぎるっぽいな……

>>890
出てる学部が違うのかな、NNの成り立ちと混ざってるのかな、どっちか分からないけどダウト。

>>896
ググッた記事読んだ感じだと、そのただのあほのようだぞ? AIと名乗っているのはルールベースっぽい。それ以上はわからんかった。

>>899
NNが解法です(キリッってことか?


905 :デフォルトの名無しさん:2010/05/12(水) 04:49:40
もうだれかやってみろよ

906 :デフォルトの名無しさん:2010/05/12(水) 04:59:23
>>984
>>NNによってブラックボックス化することで多項式の代わりとするもの。
ずっとそう言ってんだけど
だから多項式解法が存在しないものにNNを使う意味がないと
仮に使ってもそれはNNの本来の使われ方じゃないからNNじゃなくなると

正確にはただのデータベースとしても使える
多項式を記憶出来るから当然線形問題も記憶出来る
だけどそれはわざわざNNでやる話ではないというだけのこと

907 :デフォルトの名無しさん:2010/05/12(水) 05:17:46
なんかよく分からなくなってきた
ホップフィールドネットワークで解く巡回セールスマン問題は多項式解法なの?

908 :デフォルトの名無しさん:2010/05/12(水) 05:27:17
なんかルービックキューブの解法の場合は、プログラムする側が「次の手順が分かっていなければ」次の状態を記憶することができないみたいだね
人間がこれだ!という手順を知らなくても発見的に次の手順を見つけるNNは構成できないわけだ

909 :デフォルトの名無しさん:2010/05/12(水) 06:09:39
俺も>>908みたいな話だと思っていた
TSP(巡回セールスマン問題)で例えると、最短の経路を求めるために相互結合NNを使って、最短の経路を求める(近似解ではあるが)
ルービックキューブも同じように、解法経路を求めるためにNNを使い経路を求める(どんなNNか分からんがおそらく相互結合型に近いNN)
どちらも共通して言えることは、人間側は解がどのようになるかは分からないってことで、勝手に解を見つけられるNNを作ることはできるか?って話題じゃないのか?
解法を随時記録していくって話じゃなくてさ


910 :デフォルトの名無しさん:2010/05/12(水) 06:28:16
>>908
プログラマが分かるってのは総当たりチェックして最適解を学習させることと何が違うんだ

>>909
近似解って意味なら出来る場合もあるけど
たぶんその巡回セールス問題のやつは都市数が少なくて近似でもなんでもないんだろうけど
近似解はあくまで近似解でセールス問題もゴールありきだから間違えても問題ないけど
ルービックキューブは間違えると永遠にループしたりどんどん離れていったりするから無理
どれくらいの割合で正解するかは単純にNNの記憶容量に依存するだけ
だからやっても面白くもなんともない

911 :デフォルトの名無しさん:2010/05/12(水) 06:35:29
TSPの場合は解(近似解)が最後に求めることができればそれで終わりだけど
ルービックの場合は解法の経路を求めるから根本的に違うかもしれないけど、
経路をNNで求められたら面白いと思うけどな

912 :デフォルトの名無しさん:2010/05/12(水) 06:56:46
実時間で計算出来るサイズのNNじゃ正解率1%もいかないと予想

913 :デフォルトの名無しさん:2010/05/12(水) 08:50:05
>>910
ループや離れるから無理ってんならチェスも無理だな。
ユーザが意図的にループさせる手を打ってくる可能性もあるし。

本当にそうなのかな?かな?

914 :デフォルトの名無しさん:2010/05/12(水) 08:53:58
多項式解法が存在しないものなんて世の中に存在するのか?
多項式解法が証明されているかいないかだけの話だろ。どちらかというとNNよりカオスな話になっちゃうけど。


915 :デフォルトの名無しさん:2010/05/12(水) 09:15:29
ここでルービックキューブの問題は出来ないって言ってる人に質問。
逆にNNでできることって何? 具体的に。
○○のようなこと、とかじゃなく○○ができるって言い切りの形で。

ついでに勝手に解を見つけるNNの具体例もあるとありがたい。
どういう状態のNNのことを勝手に解を見つけるNNと言ってるのか分かりやすくなるから。


916 :デフォルトの名無しさん:2010/05/12(水) 15:07:08
>>913
チェスは動ける方法が制限されるという暗黙のルールが学習する以前に存在していて
それが仮にランダムに選んだとしても一定の流れを作ってゴールに導く

>>914
いっぱい
RSA暗号の解読はいくら学習させても無理でしょ

>>915
多項式で計算出来ることが予想出来るけど、具体的にどういう変換式なのか
分からないものにNNが有効
つまり一定の規則性が認識出来るもの

917 :デフォルトの名無しさん:2010/05/12(水) 15:17:09
例えばルービックキューブに定石のような決まった手があって
それが数パターンに制限されていて、それを繰り返すだけで解けるというのなら
そのパターンを学習するこは出来る
どういうパターンなのかをあらかじめ人間が知る必要は無い


918 :デフォルトの名無しさん:2010/05/12(水) 16:26:49
>>916
チェスだとそうすることで出来るんだね? ならなんでルービックキューブはできないのかな? おかしいね。

RSA暗号は本当にできないのかな? RSA暗号は詳しくないけど素因数分解ってNN適用範囲内じゃね?
今のコンピュータのスペックの処理速度で終わるかどうかは別として。

で、だから具体的にNNで何が出来たの? 規則性で認識できるものとかそういう言葉遊びは要らないから事例くれよ。事例。
その事例ではできるのになぜルービックキューブはできないと言い張るのか考えようや。


理論的には可能だが現実的には不可能、みたいな話の場合は話がかみ合わないことが多いよね。
個人的には理論的には可能か不可能か、から入るべき、というかそこから入らないと現実的に可能か不可能かもはっきりしないと思ってるんだけど。
不可能であることを証明するのが凄くしんどいのは分かるけどさ。


919 :デフォルトの名無しさん:2010/05/12(水) 17:59:14
>>918
NNでルービックキューブが解けるとおもってんだろ?
背理法でいいからお前証明してみね??

920 :デフォルトの名無しさん:2010/05/12(水) 18:30:11
NNでルービックキューブが解けないとする。

ルービックキューブとは6色・6面体・1面につき3x3の配置を持つ物体であり、3x3の列はいずれかの列を90度回転することが可能である。
「全ての面が揃っている状態からいずれかの配置を90度回転した状態」から「全ての面が揃っている状態」をNNを用いて記録することは可能である。
「全ての面が揃っている状態からいずれかの配置を90度回転した状態からいずれかの配置を90度回転した状態」から「全ての面が揃っている状態からいずれかの配置を90度回転した状態」をNNを用いて記録することは可能である。
以下、「nからいずれかの配置を90度回転した状態」から「n」をNNを用いて記録することは可能である。
nは「全ての面が揃っている状態からいずれかの配置を90度回転させる操作をN回行った状態」でありNは0以上である。
また、ルービックキューブの全ての配置の組み合わせは有限である。
よってNNが記録している限り、再帰的に全ての面が揃っている状態を導くことは可能である。

これはNNでルービックキューブが解けないと矛盾する。
よってNNでルービックキューブは解ける。


上の方のf(N-1)からf(N)云々を言葉にしただけだけど。
書いてて改めてNNでやる必然は無いと思ったが、NNで出来る出来ないで言えば出来る。

教師なしでやりたいとかPCの限界超えるとか後付けは幾らでもあるだろうけどそれはまた別のお話。


921 :デフォルトの名無しさん:2010/05/12(水) 18:32:14
>>918
ルービックキューブに定石のような決まり手が存在しないことが研究で明らかだから

922 :デフォルトの名無しさん:2010/05/12(水) 18:37:15
>>920
そりゃRSAだって有限だよw
ブルートフォースなんかやらなくてもあらかじめ計算済みの
パスワードと暗号列の対応データベースを作れば一瞬でパスワードが逆算出きるよ
ただそれは1つのパスワードを解析するのにデータセンター規模のデータベースが必要だけどw
そしてそれはNNじゃないしw

923 :デフォルトの名無しさん:2010/05/12(水) 18:41:39
PCの限界はどうでもいいとして、教師なしでは実現できない?

924 :デフォルトの名無しさん:2010/05/12(水) 18:51:18
>>920
そんな、ありきたりなNNの使い方はいいから、教師信号なしで自動で最適化してくれる方法おしえてくれ

925 :デフォルトの名無しさん:2010/05/12(水) 19:40:50
もう探索して、探索した経路をNNで記憶すればいいよ
教師信号は必要だけど、作る側はその教師信号を知らないわけだし
探索したらもう終わりでいいじゃんって話になるけど

926 :デフォルトの名無しさん:2010/05/12(水) 19:41:18
教師ありのNNなんて内部が暗号化されたDBのようなものだからなぁ。

教師なしはそもそも(ルービックキューブに限らず)実用例思いつかない。
間違いを学習しまくってNTRR気分を味わうくらいしか

927 :デフォルトの名無しさん:2010/05/13(木) 09:38:38
このスレにいるやつじゃ教師なしで最適化問題を解けるNNは構築できないよ

928 :デフォルトの名無しさん:2010/05/13(木) 13:08:25
仮にそうだとしてこの話題に何か支障をきたすのか?

そういうレスは恥ずかしいから他ではするなよ。


929 :デフォルトの名無しさん:2010/05/13(木) 17:20:18
俺は経路探査をNNでやりたいんだよ
でも、自力で出来ないからこのスレの人に聞いてるんだ、分かるやつ教えてくれ

930 :デフォルトの名無しさん:2010/05/14(金) 00:44:59
終了

931 :デフォルトの名無しさん:2010/05/14(金) 05:06:04
教師無しの基本は統計

932 :デフォルトの名無しさん:2010/05/15(土) 03:52:53
一人でできないのなら、みんなでやればいい
少なくともこのスレの住人はNNを専攻してきた人が多いだろうからさ
質問したら、それなりの答えが返ってくるさ

933 :デフォルトの名無しさん:2010/05/15(土) 05:39:29
いや、教師なしじゃできないと思う

934 :デフォルトの名無しさん:2010/05/15(土) 09:37:37
SOMなりLVQなりで、kphereもどきを動かしましたな論文が
その辺にあるだろ

935 :デフォルトの名無しさん:2010/05/15(土) 17:41:03
ルービックキューブは教師なしだろうが出来ないっつーの
まったくゆとりはこれだから
専攻してなくてもそれくらい分かる

936 :デフォルトの名無しさん:2010/05/15(土) 17:56:28
なぜ、できないの?

937 :デフォルトの名無しさん:2010/05/15(土) 21:41:38
>>936
http://ja.wikipedia.org/wiki/P%E2%89%A0NP%E4%BA%88%E6%83%B3

938 :デフォルトの名無しさん:2010/05/15(土) 22:56:29
できたよ


939 :デフォルトの名無しさん:2010/05/16(日) 04:53:57
>>935,937
おい、ネタで言ってるのか真性なのか判別しづらい、どっちだよ。

940 :デフォルトの名無しさん:2010/05/16(日) 07:09:51
俺は教師なしでできると思ってる
やり方は分からんけど・・・

もちろん真性

941 :デフォルトの名無しさん:2010/05/16(日) 12:49:24
無理です。
エネルギー最小化問題にしたみたところでTSPのようにいきなり解(六面揃い)が求まるだけで、経路は求まりません。
ルービックキューブが解けるのなら、どうしてチェスにニューロが使われないのか。


942 :デフォルトの名無しさん:2010/05/16(日) 13:58:26
出来ると言ってる方に証明責任がある

943 :デフォルトの名無しさん:2010/05/16(日) 14:55:23
ルービックキューブほど大きくなくて、ニルソンのA*でも使われてる
8パズル辺りなら実用的な時間で解けると思う

944 :デフォルトの名無しさん:2010/05/16(日) 17:47:48
>>941
君が知らないだけ
チェスに使われてるよ


945 :デフォルトの名無しさん:2010/05/16(日) 22:03:53
論文探しても見つからないんだけど

946 :デフォルトの名無しさん:2010/05/16(日) 22:39:40
情弱乙

947 :デフォルトの名無しさん:2010/05/17(月) 04:47:14
論文kwsk

948 :デフォルトの名無しさん:2010/05/17(月) 05:11:03
kphereもどきってなに?

949 :デフォルトの名無しさん:2010/05/17(月) 09:33:32
>>944
ほぉ、どういう使い方でしょうね。
連想・類似記憶で定石パターン検索とかかなぁ。


950 :デフォルトの名無しさん:2010/05/21(金) 08:33:33
で、経路探索にNNが使われている実例は無いの?

951 :デフォルトの名無しさん:2010/05/21(金) 09:43:24
8パズルなら状態数が少ないからって
教師なしでできるもんなの?

952 :デフォルトの名無しさん:2010/05/23(日) 15:21:56
NNがチェスに使われてるのって強化学習+NNでしょ
最適化問題とはちょっと違う

953 :デフォルトの名無しさん:2010/05/23(日) 17:14:44
強化学習の原理
NNだろうがなんだろうが基本は統計的アプローチだ
情報を収集する->情報を整理する->出力を考える
この3段階で行われる

例えば
入力Nはパターン0〜9
10個の配列があったとしてA[10]
入力Nが得られた時にA[N]をある規則f(N, t)で更新することで
A[N]の中身が時間と共に重要度が増すような関数を入れる
すると経験として蓄積されたA[N]は学習された結果になる

以下のメッセージは省略されました

954 :デフォルトの名無しさん:2010/05/23(日) 23:20:58
>>952
君が想像していたのと違っていようがNNである事に違いない

955 :デフォルトの名無しさん:2010/05/27(木) 17:58:00
最適化も統計もパターン認識なども情報幾何からみたら似たような問題

956 :デフォルトの名無しさん:2010/05/27(木) 19:22:47
まったく同じ問題

957 :デフォルトの名無しさん:2010/05/30(日) 13:17:02
NNの中間層ってどうやって決めればいいの?

958 :デフォルトの名無しさん:2010/05/30(日) 14:22:09
入力層の数を倍にした数に近い素数がいいって夢枕でばっちゃに言われた

959 :デフォルトの名無しさん:2010/05/30(日) 16:41:13
それを考えてみた
1と0の極入力2出力2でXORを解くには最低3個の中間層が必要
問題は入力が増えた場合だけど
必要な記憶容量は指数関数的に増大する
具体的な算出式までは分からないが、それを誰か研究してもいいんじゃないか?
出力1桁に求められる精度をa(0.1区切り)とか
つまり必要な中間層の数は(1.0 / a)^入力桁数+3だな


960 :デフォルトの名無しさん:2010/05/30(日) 16:46:41
(1.0 / a)^入力桁数+3*(1.0 / a)
こうか

961 :デフォルトの名無しさん:2010/05/30(日) 20:34:00
実際には排他的論理和は中間層の素子は2つで解けるわけだから
入力の倍に近い素数ってのはおまじないに過ぎないってことだ

962 :デフォルトの名無しさん:2010/05/30(日) 22:13:00
中間層のニューロンの数は?

963 :デフォルトの名無しさん:2010/05/31(月) 21:42:06
入力が実数値で出力も実数値のNNって作れるの?

964 :デフォルトの名無しさん:2010/05/31(月) 23:53:24
うん

965 :デフォルトの名無しさん:2010/05/31(月) 23:58:24
実例は何がある?

966 :デフォルトの名無しさん:2010/06/04(金) 01:36:00
だれかリカレントとかスピングラスについて語ってくれ

967 :デフォルトの名無しさん:2010/06/04(金) 10:30:14
リカレントは中間層に一回前の反応をリピートさせることで
時系列の関係を数値化しようとするもの

スピングラスはよく知らないが
たぶん、実際の脳細胞は同じ入力があってもランダムに発火したりしなかったりしてる
ライダムは無価値で今まで無視されてたけど
そのランダム性が本当は重要で結果に影響を与えてるのではという統計学仮説がある


968 :デフォルトの名無しさん:2010/06/04(金) 20:54:06
何十年も前から研究されてる割には糞の役にも立たないイメージしかないんだが
最適化問題意外に利用法あるのか?

969 :デフォルトの名無しさん:2010/06/04(金) 20:57:30
みらいの攻殻機動隊には必要な技術です(テキトー

970 :デフォルトの名無しさん:2010/06/04(金) 21:02:35
光学迷彩的な意味、AI的な意味?
このモデルじゃどっちも無理だろ。せいぜいアイボ止まり

971 :デフォルトの名無しさん:2010/06/04(金) 21:12:09
脳をシミュレートするのは今のコンピュータじゃ無理だとか言わずに
一言発するのに一週間掛かってもいいから
まともに機能する人工知能の基礎モデルくらい作って欲しいな
後はコンピューターの性能向上を待つだけとかになれば
特化したCPUを開発するとかいう道も開けるだろうに

972 :デフォルトの名無しさん:2010/06/04(金) 21:17:06
コンピュータの性能が無理なんじゃなくて、
リカレントモデルで、どーこーってのが無理

973 :デフォルトの名無しさん:2010/06/06(日) 16:15:48
0,1の入力の素子が36個に対して
出力が-1~1の実数の場合、中間層の素子の数はいくつにすればいい?

974 :デフォルトの名無しさん:2010/06/06(日) 19:50:53
たくさんあれば近似能力があがる一方で、計算時間が伸びる
とか適当こいてみよう。ciniiなりなんあり漁れよ

975 :デフォルトの名無しさん:2010/06/06(日) 21:44:43
>>973
1の36乗+3

976 :デフォルトの名無しさん:2010/06/06(日) 21:45:49
3じゃない
2の36乗+3にしとこう

977 :デフォルトの名無しさん:2010/06/06(日) 23:23:50
1個以上

978 :デフォルトの名無しさん:2010/06/07(月) 00:00:10
2^36は多すぎ

979 :デフォルトの名無しさん:2010/06/07(月) 02:38:36
>>975-976
どれがいいの?

980 :デフォルトの名無しさん:2010/06/07(月) 02:39:21
どれもだめ


981 :デフォルトの名無しさん:2010/06/07(月) 08:18:54
記憶させるものの規模は書いてあってもその量が書かれていないんだから決められない

982 :デフォルトの名無しさん:2010/06/08(火) 00:15:22
>>971
脳をシミュレーションするのと人工知能は関係ないと思うんだが

983 :973:2010/06/08(火) 04:17:39
>>981
記憶させる値は-1.0から1.0まで0.1刻みで20個記憶させます


984 :デフォルトの名無しさん:2010/06/08(火) 04:24:21
21個じゃなくて?


985 :デフォルトの名無しさん:2010/06/08(火) 04:25:26
21でした

986 :デフォルトの名無しさん:2010/06/08(火) 18:45:58
で、いくつがいいの?

247 KB
■ このスレッドは過去ログ倉庫に格納されています

★スマホ版★ 掲示板に戻る 全部 前100 次100 最新50

read.cgi ver 05.04.02 2018/11/22 Walang Kapalit ★
FOX ★ DSO(Dynamic Shared Object)