Freitag, 2. Oktober 2009

ai

bin grad auf was interessantes gestoßen...

kennt jeder von euch das Mooresche Gesetz? dieses besagt das sich mehr oder weniger die rechenleistung eines PCs alle 24 Monate verdoppelt. wers nicht glaubt soll sich mal die geschichte von computern ansehen, das gesetz haut prima hin. genauso könnte man sich so z.b. berechnen wann es die erste 10 TB festplatte gibt. Darum solls aber nicht gehen.

Ich habe weiterhin beim stöbern einen artikel über die technologische singularität gefunden. Die Rechenleistung des Menschlichen Gehirns wird dabei auf rund 100 bis 10.000 Teraflops geschätzt. Zum vergleich, nen Pentium 4 der SSE3 unterstützt und auf 3,6 GHz getaktet ist schafft rund 7 gigaflops,... nen intel atom n270 bei 1,6 GHz wie er in meinem eee drin ist 3,3 Gigaflops - nen Core i7 (nen quad Core i7 mit 3Ghz) 33 Gigaflops, ne GeForce 285 hingegen nen guten teraflop pro sekunde.

sprich .... jeder kann rechnen, irgendwann übersteigt die rechenleistung eines Computers die rechenleistung eines gehirnes. folglich ist bei richtiger programmierung und dem schaffen einer künstlichen intelligenz dieser computer wiederum in der lage noch schneller noch schnellere computer zu bauen.

die grenze wäre dann aber schon bald erreicht, denn man kann nicht immer kleiner und kleiner bauen. ab einer gewissen grenze kann man nicht mal mehr mit strömen von einem elektron rechnen ohne das es zu nem tunnelstrom in ner andere zelle kommt. sprich, spätestens dann ist auf herkömmliche weiße erstmal schluss. laut moores law sollte es rund 2029 so sein... aber bis dahin ist bereits die zetaflopmarke geknackt. sprich 10^21 flops! das entspricht bereist 1.000.000.000.000 gigaflops, also 1.000.000.000 teraflops. also wer dann noch gegen den schachcomputer gewinnt, da hab ich respekt vor xD

das erstaunliche ist, 2029 ist es theoretisch schon so weit! da bin ich grad mal knapp über 40... !
ich glaube jetzt versteh ich besser was meine großeltern damit meinen wenn sie die digicam mal wieder nicht verstehen und mich nur unglaubwürdig anschauen wenn ich ihnen sage das auf die speicherkarte tausende bilder draufgehen.

da bekomm ich gute laune und freu mich auf die zukunft! jetzt bin ich richtig heiß drauf was während meines lebens alles noch entdeckt wird und wie unser leben in 50 jahren aussehen wird. ich wage es kaum mir das vorzustellen!

1 Kommentar:

davidplotzki hat gesagt…

Ich fürchte, so wird es kommen; und die Vorstellung, dass Maschinen sich bald selbst verbessern und weiterentwickeln können, finde ich ausgesprochen beängstigend. Spätestens dann hat sich der Mensch absolut überflüssig gemacht, das angenehmste Szenario wäre dann noch das aus Wall-E ;)

Wenn man diese Rechenleistung hat, reicht es schon aus, einfach nach dem Prinzip Trial&Error vorzugehen, wie es die Evolution macht. AI-Algorithmen könnten schon allein auf diese Weise entstehen.

Da verweise ich auch mal auf das Golem-Projekt; die haben vor ein paar Jahren mittels verteiltem @Home-Computing Kreaturen geschaffen, die sich effizient fortbewegen und andere Objekte verschieben können. Weiß nicht, wie viele Flops die zur Verfügung hatten, aber das könnte dann bald die GeForce machen :D