Frage:
Warum hat die Evolution dazu geführt, dass Neuronen Spikes verwenden?
TND
2013-12-26 01:34:55 UTC
view on stackexchange narkive permalink

Ich werde vorwärts gehen und sagen, dass ich kein Biologe bin. Ich behaupte nicht, die Funktionalität eines Neurons aus elektrischer / chemischer Sicht vollständig zu verstehen ... Ich schaue als Computerprogrammierer neugierig von außen nach innen.

Nun, das große Neue ist dies Tage mit künstlichen neuronalen Netzen simulieren sie mit biologischer Präzision - das heißt, mit Spikes wird das Netzwerk tatsächlich im euklidischen Raum platziert und alle möglichen anderen Extras (siehe Human Brain Project; es ist wirklich cool Unser eigenes Gehirn ist berechenbar, wenn man einen ausreichend leistungsfähigen Computer berücksichtigt. Wahrscheinlich hat es auch viele faszinierende und schreckliche philosophische Implikationen.), Aber dies ist nicht das einzige Modell, das Menschen üblicherweise für neuronale Netze verwenden.

In der Vergangenheit waren mehrschichtige Perzeptrone die große Sache; Ich werde nicht näher darauf eingehen, sie zu erklären, aber im Wesentlichen führt jedes Neuron einfach eine mathematische Funktion für seine Eingaben aus und gibt sie dann aus. Es gibt keine Spitzen im ähnlichen Sinne wie unsere Neuronen. Ein Neuron könnte seine Leistung auf unbestimmte Zeit mit fast 100% sprengen, und es gibt keinen objektiven Unterschied zwischen dem und dem Wert von 0% oder irgendwo anders.

Nun, ich bin irgendwie auf eine Tangente gegangen, aber was ich zu verstehen versuche, ist - warum dieses Verhalten in dem Berechnungssystem, das die Evolution in den vielen, vielen Jahren hervorgebracht hat, nicht beobachtet wird? Warum verwenden wir stattdessen Spike-Neuronen? Wir haben stattdessen ein seltsames System entwickelt, bei dem Spikes in Mustern, die wir noch nicht wirklich verstehen, über Ketten von Neuronen wandern, um das Verhalten zu erzeugen, das für das Überleben der Kreatur erforderlich ist. Meine Frage ist, warum dies gegenüber etwas ähnlichem wie mehrschichtigen Perzeptronen bevorzugt wurde. Ist es energieeffizienter, ein Spiking-Modell zu verwenden? Das Gehirn verbraucht unverhältnismäßig viel Energie. Ich frage mich, ob es als Berechnungsmodell effektiver ist.

Um sicherzugehen, was Sie meinen, fragen Sie, warum die Neuronen nur in einer "Ein oder Aus" -Methode aktiviert werden und warum es keine Zwischenzustände gibt.
Entschuldige Nein; Ich frage, warum Neuronen, die spitzen, von jeder Kreatur mit einem Gehirn konsequent verwendet werden. Spitzen zu bestimmten Zeiten, anstatt beispielsweise 50% "Signal" über einen längeren Zeitraum oder ein anderes Verhaltensmuster zu übertragen. Also nicht unbedingt binär, wie Sie beschreiben, sondern sich selbst spitzen. Dies ist schwer zu beschreiben, ohne mehrschichtige Perzeptrone im Detail zu erklären ...
Zumal Sie bereits einen quantitativen Hintergrund haben, das Buch [Spikes] (http://www.amazon.com/Spikes-Exploring-Neural-Computational-Neuroscience/dp/0262681080/ref=sr_1_1?s=books&ie=UTF8&qid=1388020024&sr = 1-1 & keywords = Spikes) behandelt viele dieser Probleme aus informationstheoretischer Sicht.
Sie sollten nachlesen, wie Neuronen funktionieren. Sie haben zugegeben, dass Sie das nicht wissen, aber es beantwortet Ihre Frage direkt.
Vier antworten:
Keegan Keplinger
2014-01-01 23:28:12 UTC
view on stackexchange narkive permalink

Einer der vielen Vorteile eines All-or-None-Systems besteht darin, dass Ressourcen für Timing-Ereignisse eingespart werden können, die eine synchronisierte Zusammenarbeit zwischen vielen Zellen erfordern (z. B. Fortbewegung). Binäres Verhalten kann auch teilweise ein Nebeneffekt der Geschwindigkeit und des effizienten Informationsaustauschs über große Entfernungen sein (was in erster Linie einer der großen Vorteile von Neuronen als Zellen ist).

Es sollte jedoch beachtet werden dass Neuronen nicht universell binär sind. Es ist genauer zu sagen, dass Neuronen binäre Eigenschaften haben, die es Neuronen ermöglichen, sich binär zu verhalten (aber nicht alle Neuronen tun dies). Darüber hinaus liegen der Erregbarkeitsschwelle des Neurons viele kontinuierliche (d. H. Nicht-binäre) Prozesse zugrunde

Alexlok
2014-03-01 04:26:37 UTC
view on stackexchange narkive permalink

Ich denke, Sie vermissen eines: Ein Perzeptronmodell und ein Spikemodell schließen sich nicht gegenseitig aus. Tatsächlich verwenden Menschen in Perzeptronen normalerweise eine Sigmoidfunktion. Das ist kein Zufall: Es simuliert eine Art Spitze. Wenn Sie einen Organismus wie C. elegans modellieren würden, dessen Neuronen nicht spitzen (sondern "abgestufte Aktionspotentiale" verwenden), würden Sie eine andere Art von Aktivierungsfunktion verwenden (übrigens, wenn Sie das Human Brain Project mögen, Sie sollten auch das Openworm -Projekt überprüfen, das viel realistischer ist und bereits einige interessante Ergebnisse liefert).

Also zurück zum Punkt. Wenn Sie versuchen, das Lernen und die Erzeugung von Gedächtnis zu modellieren, beschäftigen Sie sich häufig mit Plastizität. Nur eine kurze Erklärung: Ein Neuron löst ein Aktionspotential (AP) aus, wenn sein Transmembranpotential einen Grenzwert überschreitet. Das Potential selbst ändert sich aufgrund der Eingaben von anderen Neuronen. Aber nicht alle Eingänge haben das gleiche Gewicht. Angenommen, Sie betrachten das Neuron A, das Synapsen von den Neuronen B, C, D erhält. Wenn B gleichzeitig mit C ausgelöst wird, kann es ausreichen, aus A einen AP zu erstellen. Aber auch in Kombination mit B oder C, D lösen nicht genügend Transmembranpotentialvariationen aus, um einen AP zu erzeugen; Es muss genau zur gleichen Zeit wie E, F, G und H feuern, um genügend "Feuerkraft" zu erhalten, um A zu aktivieren.

Wenn jedoch jedes Mal D feuert, erhält A einen AP (wegen der gleichzeitige Aktivierung anderer eingehender Neuronen), dann könnte man sagen, dass D für A "nützlich" ist und (abhängig von der Art des Neurons und anderen Parametern) das Gewicht von D zunehmen kann, so dass D nach einer Weile dazu in der Lage ist einen AP in A auslösen, indem Sie gleichzeitig mit jedem anderen ankommenden Neuron feuern. Das ist ein Plastizitätsphänomen. Beachten Sie, dass es sich hier um ein wirklich einfaches hypothetisches Beispiel handelt. Und auch, dass die Idee, dass Lernen aus Plastizität resultiert, immer mehr in Frage gestellt wird.

Wenn Sie also verstehen möchten, wie Lernen und Gedächtnis ablaufen, sind Sie möglicherweise nur an den Gewichten der Verbindungen interessiert und daran, wie sie sich je nach Netzwerkaktivität entwickeln. In diesem Fall ist ein Perzeptronmodell ein guter Weg.

Das große Neue bei künstlichen neuronalen Netzen ist heutzutage, sie mit biologischer Präzision zu simulieren, dh mit Spikes

Wie Sie bereits in Ihrer Frage erwähnt haben, müssen Sie ein Modell auswählen, das Sie verwenden möchten (als Forscher, der versucht, das Gehirn zu verstehen). Dies ist nicht versucht, eine genaue Darstellung zu geben, wie das Gehirn wirklich ist. Wenn Sie an den Gewichten der Verbindungen interessiert sind, können Sie einen Ansatz für neuronale Netze verwenden (und dieser ist nicht veraltet), und Sie interessieren sich nicht für einen einzelnen Ionenkanal auf der Membran von a Neuron. Alternativ können Sie Ihr Leben auch dem Verständnis der Struktur eines einzelnen Ionenkanals widmen und wie einfache Details die gesamte Funktionsweise des Gehirns bestimmen können.

Projekte wie das Human Brain Project versuchen zu erstellen ein "biologisch genaues" Modell des Gehirns. Es geht also darum, die Spikes sowie die Netzwerkorganisation sowie einzelne Ionenkanäle zu modellieren. In diesem Fall müssen sie also keine Paradigmen wie künstliche neuronale Netze verwenden, da das Verhalten des Netzwerks ein Ergebnis der Modellierung der einzelnen Neuronen sein sollte: Dies wäre eine emergente Reaktion. Sie haben jedoch nicht mehr die Vereinfachungen, die andere Modelle mit sich bringen, und benötigen daher eine enorme Rechenleistung. Außerdem stehen sie vor neuen Problemen: Beispielsweise müssen sie allen einzelnen Parametern ihrer Modelle Werte geben, von denen einige sind Derzeit unbekannt und könnte überhaupt nicht existieren.

Ich denke, dies gibt Antworten auf Ihre Frage in dem Sinne, dass sich nicht das Gehirn entwickelt hat, um ein Modell auszuwählen, sondern die Wissenschaftler, die es versuchen Modellieren Sie einen bestimmten Aspekt des Gehirns.

EDIT: Ich sehe tatsächlich, dass diese Frage ziemlich alt ist; Entschuldigung, es war ein Vorschlag auf der rechten Seite, der mich hierher gebracht hat. Aber ich denke, meine Antwort kann immer noch einen Aspekt bringen, der in den anderen Antworten noch nicht erwähnt wurde. Ich hoffe, Sie werden es sehen.

Brandli
2014-08-17 01:33:21 UTC
view on stackexchange narkive permalink

Die Verwendung von Spikes ist eine Mischung aus ihren Rechenvorteilen und den Einschränkungen des biologischen Substrats, in dem sie implementiert sind:

  1. Sie können lange Strecken mit hoher Geschwindigkeit zurücklegen, weil sie davon profitieren können Die Salzleitung ist viel schneller als die Diffusion und kann über große Entfernungen aufrechterhalten werden. Ein digitales Signal ist weniger anfällig für Rauschen, was auch ein Grund dafür ist, dass unsere Computer digital arbeiten.
  2. Spikes können mithilfe chemischer Synapsen moduliert werden, die a) gerichtet sind, b) das Signal verstärken können, c) das Signal modulieren können d) kann sogar das Signal sperren. Analoge Spannungen müssen über elektrische Übergänge übertragen werden, die keine Modulation zulassen.
  3. Die Frequenzcodierung (Signal liegt im Intervall zwischen Spitzen) hat einen breiteren Dynamikbereich als die Spannungscodierung.
  4. Die Spike-Erzeugung kann als Nichtlinearität in der Übertragungsfunktion dienen.
  5. Die Spike kann verwendet werden, um zeitliche Signale effizienter zu codieren, indem die Redundanz reduziert wird (nur Signaländerung).
  6. ol>

    Übrigens. Erwarten Sie nicht zu viel vom menschlichen Gehirnprojekt - es wird viel geredet und es werden keine Ergebnisse erzielt.

Es wäre großartig, wenn Sie Ihrer Antwort einige Verweise hinzufügen würden!
Meine Antwort ist eine Mischung aus Lehrbuchwissen und gesundem Menschenverstand. Es gibt nur sehr wenige Artikel, die breit genug sind, um einen der Gründe zu belegen.
Andrew Bonnell
2013-12-27 08:39:23 UTC
view on stackexchange narkive permalink

Neuronen sind binär, da sie entweder "feuern" oder "nicht feuern". Es gibt kein Zwischenprodukt, da das neuronale Brennen (biochemisch) ein Lawinenprozess ist. Erregende Auslöser erhöhen das Membranpotential und hemmende Auslöser senken es. Sobald die "Schwellenspannung" erreicht ist, leuchtet das Neuron auf und feuert. So werden "Entscheidungen" von Neuronen getroffen: Eingaben von vielen inhibitorischen und exzitatorischen Neuronen werden summiert, und wenn die Summe über der Schwellenspannung liegt, wird das betreffende Neuron ausgelöst. Um eine Computersprache zu verwenden, ist ein Neuron ein logisches UND-Gatter mit Hunderten von Eingaben.

Lesen Sie den Wikipedia-Artikel über "Aktionspotentiale" für eine eingehendere Diskussion.

Aber meine Frage ist, was genau ist der evolutionäre Fitnessvorteil der Verwendung dieses Mechanismus gegenüber einem anderen Mechanismus, der "nichtdiskreten Logikgattern" ähnlicher ist, wie dies bei mehrschichtigen Perzeptronen der Fall ist? Liegt es einfach daran, dass Spiking die am einfachsten zu entwickelnde Methode war und das Gehirn mit zunehmender Komplexität weiterhin von dieser Architektur abhängig war? Ich verstehe meistens, wie Spike-Neuronen funktionieren, zumindest aus mathematischer Sicht, nicht aus elektrochemischer Sicht (ich muss das nachlesen ...), aber ich denke nicht, dass dies im Rahmen meiner Frage liegt. Tut mir leid, dass ich nicht klar bin.


Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
Loading...