Informations

Comment se produit l'invariance de traduction dans la vision ?

Comment se produit l'invariance de traduction dans la vision ?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Les réseaux de neurones convolutifs sont très populaires de nos jours en vision par ordinateur. L'une des choses qu'ils font très bien est de reconnaître les objets avec invariance de traduction. Pour ce faire, ils « nouent » les forces de certaines synapses, de sorte qu'elles changent toutes de la même manière au cours de l'apprentissage. Ceci n'est apparemment pas biologiquement plausible.

Ma question est la suivante : que sait-on de la façon dont les systèmes visuels biologiques parviennent à l'invariance de la traduction. Par exemple, comment se fait-il que si nous apprenons à reconnaître un nouvel objet avec notre œil gauche, nous sommes automatiquement capables de le reconnaître également avec notre œil droit. Quelle est la base neurobiologique de cette invariance ? Mon domaine est les mathématiques/l'apprentissage automatique, pas la biologie, donc j'apprécierais des réponses qui ne soient pas trop techniques (bien que je comprenne que cela pourrait ne pas être possible).

Merci!


Invariance dans la reconnaissance de formes

Ce chapitre passe en revue le problème de l'invariance dans la reconnaissance de formes. Il décrit les techniques de calcul permettant de reconnaître des motifs, invariants par rapport aux distorsions auxquelles ils ont pu être soumis. Le problème de reconnaissance visuelle provient du fait que l'interprétation d'une scène tridimensionnelle (3-D) à partir d'une seule image bidimensionnelle (2-D) est confondue par plusieurs dimensions de variabilité. Ces dimensions comprennent une perspective, une position, une orientation et une taille incertaines (variabilité géométrique pure) ainsi que le bruit du capteur, l'occlusion d'objets et un éclairage non uniforme. Il existe plusieurs manières majeures de traiter le problème de la variabilité des images. Les approches peuvent être distinguées selon le type de modèles prototypes (de mémoire) qui sont mis en correspondance avec les représentations d'images calculées à l'interface avec la mémoire visuelle. L'une des façons d'effectuer la reconnaissance de formes invariantes est de rechercher une structure interne. Pour capturer de telles relations (internes) entre les composants d'objets, des outils, tels que les chaînes de Markov et le minimum spanning tree (MST) ou des langages formels (grammaires) peuvent être utilisés.


1 réponse 1

L'idée d'une couche de cellules complexes est de « regrouper » un ensemble de cellules simples et d'acquérir les mêmes données à partir de ces cellules simples (par exemple, la translation invariante, l'invariant de rotation, etc.). Une belle illustration est le modèle informatique de Neocognitron https://youtu.be/Qil4kmvm2Sw?t=6m9s

Quant à l'exemple de la traduction des matrices 2x2 et 3x3 par un pixel dans deeplearning.net, je pense qu'une explication possible est que la carte de pooling Retour la même valeur pour la carte de convolution suivante. Considérant l'image 4x4 suivante avec nos données significatives dans la région 2x2 (ligne = 2, col = 2) à (3,3):

0 0 0 0
0 1 6 0
0 2 3 0
0 0 0 0

La carte Max-Pooling regarde toujours la région (2,2) et (3,3) et elle renvoie 6. Si nos données étaient traduites (déplacées) d'un pixel, il y aurait 8 façons différentes de le faire. Parmi ceux-ci, il existe 3 façons de conserver la région ((2,2) (3,3)) a 6 comme valeur maximale :

drow = 1, dcol = 0
0 0 0 0
0 0 0 0
0 1 6 0
0 2 3 0

drow = 0, dcol = -1
0 0 0 0
1 6 0 0
2 3 0 0
0 0 0 0

drow = 1, dcol = -1
0 0 0 0
0 0 0 0
1 6 0 0
2 3 0 0

Cela dit, si nos données sont représentées par la valeur maximale, la reconnaissance fonctionnera pour tous ces 3 cas.

Lors de l'application du même processus de traduction (par 1 pixel) pour la matrice 3x3

La valeur maximale au coin (1, 3, 7, 9) sera retenue dans 3 translations, la valeur au milieu de chaque bord (2, 4, 6, 8) sera retenue dans 5 translations. Les cellules simples sont responsables de la détection de ligne/bord, donc probablement la position centrale (5) est laissée de côté.


Expérience 2

Matériel et méthode

Participants

Dix participants ont pris part à chacune des expériences et ont été payés 10 £ pour leur temps.

Stimuli et équipement

Le même équipement et les mêmes stimuli ont été utilisés que ci-dessus. L'excentricité horizontale du point de fixation était de 6,5°, et chaque fois que le regard d'un participant était à plus de 1,5° de la fixation, l'objet était remplacé par un masque qui incitait le participant à revenir au point de fixation.

Procédure et conception

La procédure expérimentale était similaire à celle décrite ci-dessus. La seule différence était que, pendant la formation, les nouveaux objets étaient centrés au milieu de l'écran et le point de fixation était situé à gauche ou à droite de l'écran, avec des emplacements contrebalancés entre les participants. Pendant le test, le point de fixation était affiché soit à la position d'entraînement (même), au centre de l'écran (centre), ou à l'opposé de l'écran (contraire) dans un ordre aléatoire. Le nombre moyen d'essais pour terminer la session de formation était de 114.

Résultats

Les résultats de l'expérience 2 sont également présentés sur la figure 4. Le schéma était similaire à celui que nous avons trouvé dans les expériences 1a et 1b. La précision était au-dessus du hasard dans toutes les conditions expérimentales : même, 91 %, Cohen = 4,86 ​​centre, 89 %, = 4,29 opposé, 77 %, = 4,45. Les performances étaient meilleures dans le même que dans le contraire état, = 0,96, mais pas que dans le centre état, = 0,07. Nous avons également observé une réduction significative entre le centre et contraire conditions, = 0.83.

Dans l'expérience finale, nous avons tenté d'éliminer l'effet de l'emplacement rétinien en présentant quatre des six objets dans plusieurs emplacements rétiniens pendant l'étude, les deux objets restants étant projetés sur un seul emplacement. Des travaux antérieurs sur l'apprentissage perceptuel ont suggéré que la tolérance peut être améliorée lorsqu'un certain nombre d'objets de même complexité sont expérimentés à plusieurs endroits de la rétine (par exemple, Xiao et al., 2008).


Projets de science des yeux et de la vision

Test de vision du tableau des yeux

Un graphique oculaire de Snellen est utilisé pour déterminer à quel point votre vision est «normale». Il établit une norme pour ce que la plupart des gens devraient être capables de voir lorsqu'ils se tiennent à 20 pieds de la carte.

20/20 la vision signifie simplement que lorsque vous vous tenez à 20 pieds d'un tableau oculaire de Snellen, vous voyez ce qu'un être humain normal peut voir.

Si vous voyez 20/40, cela signifie que lorsque vous vous tenez à 20 pieds de la carte, vous voyez ce qu'une personne normale voit à 40 pieds de celle-ci. Plus le deuxième chiffre est élevé, plus votre vision est mauvaise. 20/200 (vous voyez à 20 pieds ce qu'une personne normale voit à 200) est le nombre de cécité légale aux États-Unis.

La vision 20/20 n'est pas parfaite, elle est juste "normale". Vous pouvez avoir une meilleure vision que 20/20. Si vous avez 20/10, vous voyez à 20 pieds ce que la plupart des gens voient à 10. Certains animaux, comme les faucons, peuvent avoir une vision de 20/2 !

Vous pouvez utiliser notre charte des yeux de Snellen* pour comparer la vision au sein de votre famille ou avec vos amis.

(Cela ne vous donnera qu'une idée approximative de votre vision. Votre optométriste dispose d'outils beaucoup plus précis pour savoir exactement à quel point vous voyez bien.)

Chaque ligne du graphique est étiquetée sur le côté gauche. L'avant-dernière ligne est 20/20.

Collez le tableau des yeux sur un mur, en vous assurant qu'il est bien éclairé. Tenez-vous à vingt pieds du tableau et commencez à lire chaque ligne.

Demandez à un membre de votre famille ou à un ami de vérifier que vous lisez correctement chaque lettre. La dernière ligne que vous êtes capable de lire vous donnera une idée approximative de votre vision.

Si vous pouvez lire la ligne du bas, votre vision est de 20/10 ! Essayez maintenant de couvrir un œil et de tester l'autre. Un œil est-il meilleur que l'autre ?

Demandez à tous les membres de votre famille d'essayer de lire le tableau. Certains d'entre vous ont une meilleure vision que d'autres ? Si vous portez des lunettes, quelle est votre vision avec et sans elles ?

*Instructions pour le téléchargement: Le PDF Snellen Eye Chart est 11″ x 17″, donc pour imprimer correctement, vous devrez définir vos options d'impression sur “tile.” Les choix d'imprimante varieront, mais vous devriez faire quelque chose de similaire. Ouvrez le PDF et choisissez Imprimer. Sous les options de mise à l'échelle de la page, sélectionnez “mosaïque toutes les pages.” Cela devrait imprimer le graphique sur quatre feuilles de papier. Vous devrez couper les bords pour que les pièces correspondent, puis les coller ou les coller ensemble.

(Vous pouvez également commander une copie déjà imprimée 11″ x 17″ de notre Snellen Eye Chart.)

Expériences d'angle mort

L'endroit où votre nerf optique se connecte à votre rétine s'appelle le disque optique. Il n'y a pas de cellules photoréceptrices sur ce disque, donc quand une image atteint cette partie de votre rétine, vous ne pouvez pas la voir.

C'est ton angle mort. Vous ne remarquez pas cet angle mort dans la vie de tous les jours, car vos deux yeux travaillent ensemble pour le couvrir.

Pour le trouver, dessinez un carré rempli de 1/4 & 8243 et un cercle distant de trois ou quatre pouces sur une feuille de papier blanc.

Tenez le papier à bout de bras et fermez l'œil gauche. Concentrez-vous sur le carré avec votre œil droit et déplacez lentement le papier vers vous. Lorsque le cercle atteint votre angle mort, il disparaîtra !

Essayez à nouveau de trouver l'angle mort de votre autre œil. Fermez votre œil droit et concentrez-vous sur le cercle avec votre œil gauche. Déplacez le papier jusqu'à ce que le carré disparaisse.

Que s'est-il passé lorsque le cercle a disparu ? N'avez-vous rien vu où se trouvait le cercle ?

Non, lorsque le cercle a disparu, vous avez vu un fond blanc uni qui correspondait au reste de la feuille de papier.

C'est parce que votre cerveau a rempli l'angle mort, votre œil n'a envoyé aucune information sur cette partie du papier, donc le cerveau a juste fait correspondre le "trou" avec le reste.

Renouvelez l'expérience sur une feuille de papier de couleur. Lorsque le cercle disparaîtra, le cerveau remplira la couleur correspondant au reste du papier.

Le cerveau ne correspond pas seulement aux arrière-plans colorés. Il peut également apporter d'autres modifications à ce que vous voyez. Essayez de dessiner deux rectangles remplis côte à côte avec un cercle entre eux. A quelques centimètres à droite de celui-ci, dessinez un carré.

Fermez votre œil droit et concentrez votre œil gauche sur le carré. Déplacez le papier jusqu'à ce que le cercle disparaisse et que les deux barres séparées deviennent une seule barre.

Comment est-ce arrivé? Le cercle entre les barreaux est tombé sur votre angle mort. Lorsqu'il a disparu, le cerveau a comblé les informations manquantes en reliant les deux barres !

Voici une dernière expérience avec votre angle mort. Dans ce cas, le cerveau ne correspond pas à la tache aveugle avec son arrière-plan blanc immédiat, mais plutôt avec le motif qui l'entoure.

Tracez une ligne au centre de votre page. D'un côté dessinez un petit carré et de l'autre dessinez des rangées de cercles. Colorie le cercle central en rouge et tous les autres en bleu.

Fermez votre œil gauche et regardez le carré avec votre œil droit. Au fur et à mesure que vous déplacez le papier, le cercle rouge devrait disparaître et être remplacé par un bleu !

Technologie : Améliorer la vue

La conception générale de l'œil humain est pratiquement parfaite, mais chaque œil individuel ne l'est pas.

Si vous utilisez des lentilles ou des lunettes pour lire cet article, vous savez que vos yeux ne sont pas parfaits.

Peut-être êtes-vous myope et ne peut pas très bien voir les objets éloignés.

Ou peut-être êtes-vous hypermétrope et ont du mal à voir les choses de près. Ces deux conditions se produisent en raison de la forme du globe oculaire.

Si votre globe oculaire est trop court, les rayons lumineux focaliseront l'image derrière votre rétine, au lieu de dessus. Cela produit l'hypermétropie. Si votre globe oculaire est trop long, les rayons lumineux focalisent l'image devant de la rétine, vous rendant myope.

La technologie de correction de la vision s'est développée au fil des siècles.

Le premier connu lunettes ont été fabriqués au 13ème siècle à partir de quartz serti dans de l'os, du métal ou du cuir.

Finalement, la technologie de soufflage du verre a permis d'utiliser une qualité de verre suffisamment fine pour les lentilles.

Le plus gros problème avec ces premières lunettes était de les garder. Il a fallu près de 400 ans avant que quelqu'un ne développe les bras latéraux pour reposer sur les oreilles !

La plupart des gens ont acheté des lunettes prêtes à l'emploi qui auraient aidé leur vision sans la corriger précisément.

Par exemple, Benjamin Franklin avait deux paires de lunettes, une de près et une de loin. Il en avait marre de les changer, alors il a coupé les verres en deux et les a repositionnés pour qu'il puisse voir de près et de loin en utilisant les mêmes lunettes – les premiers bifocaux !

Avec les progrès de la technologie, les équipements de test de vision sont devenus de plus en plus précis.

Maintenant, pour obtenir une paire de lunettes, vous devez vous rendre dans un optométriste qui déterminera exactement le type et la force de lentilles dont vous avez besoin.

Concave les lentilles sont utilisées pour la myopie car elles détournent la lumière du centre, ce qui empêche la lumière de se focaliser trop loin devant la rétine.

Convexe les lentilles sont utilisées pour l'hypermétropie car elles courbent la lumière vers le centre, ce qui fait que la lumière se concentre plus tôt afin que l'image ne soit pas focalisée derrière votre rétine.

Des lentilles peuvent également être fabriquées pour corriger d'autres problèmes oculaires, tels que astigmatisme, qui est une courbure irrégulière de la cornée.

Les lentilles de contact sont une alternative populaire aux lunettes. Ces lentilles s'adaptent directement sur la cornée, où elles flottent sur une couche de larmes.

Ils étaient en expérimentation dès le milieu du XIXe siècle, bien que la qualité et le confort laissent beaucoup à désirer. Aujourd'hui, des millions de personnes aux États-Unis utilisent des lentilles souples ou dures.

Les lentilles de contact souples sont faites de plastiques souples absorbant l'eau. Ils sont plus confortables à porter que les lentilles rigides, qui sont faites de plastique plus rigide qui ne se forme pas aussi bien pour l'œil. Les lentilles dures, en revanche, produisent une image plus nette.

Certaines personnes veulent une solution plus permanente à leurs problèmes de vision. Ces dernières années, des procédures telles que LASIK (kératomileusis in-situ assistée par laser) ont été développées pour éliminer le besoin de lentilles externes comme des lunettes et des contacts.

Alors que les lentilles externes modifient la façon dont la lumière est courbée afin qu'elle se concentre sur votre rétine, la chirurgie au laser remodèle la cornée elle-même.

Le processus implique un faisceau de lumière ultraviolette étroitement focalisé, appelé laser excimer. Le chirurgien utilise d'abord un scalpel tranchant pour couper un lambeau dans la couche supérieure de la cornée, puis dirige le laser dans la couche intermédiaire.

Lorsque le laser pulse sur cette surface, il vaporise une partie microscopique de la cornée. En contrôlant le nombre et l'emplacement des impulsions, le chirurgien contrôle la quantité de cornée retirée.

Scientifique remarquable : Charles Bell (1774-1842)

Vous êtes-vous déjà demandé comment de grands artistes peuvent peindre un visage humain parfaitement réaliste ? L'une des contributions de Charles Bell à l'art était un manuel d'anatomie spécialement destiné aux artistes, appelé Essais sur l'anatomie de l'expression en peinture.

Charles Bell était lui-même artiste, chirurgien et anatomiste. Il est né à Édimbourg, en Écosse, fils d'un pasteur de l'Église d'Angleterre. Son frère aîné John était chirurgien, auteur et professeur d'anatomie à l'Université d'Édimbourg.

En étudiant avec son frère, Bell a développé à la fois son talent artistique et ses connaissances médicales. Après avoir obtenu un diplôme en médecine de l'Université, Bell a aidé à enseigner le cours d'anatomie de son frère et à publier un manuel d'anatomie en quatre volumes.

Finalement, Bell a déménagé à Londres où il a fait des recherches approfondies sur les nerfs, a écrit de nombreux livres et traités, a ouvert une école d'anatomie et a travaillé comme chirurgien.

En 1815, il soignait les blessés après la sanglante bataille de Waterloo, son habileté en chirurgie lui étant très utile.

Son expérience sur le champ de bataille l'a amené à créer des illustrations de blessures par balle à l'usage des chirurgiens.

Les recherches de Bell sur le cerveau et les nerfs se sont avérées fondamentales pour la neurologie moderne. Il a déterminé que les nerfs n'envoyaient des informations que dans un sens : certains transmettaient des informations sensorielles au cerveau et d'autres transmettaient des commandes du cerveau au reste du corps. Il a également tracé des nerfs d'organes sensoriels spéciaux (tels que l'œil) à des parties spécifiques du cerveau.

À travers toutes ses recherches et illustrations médicales, Bell a reconnu la main d'un créateur. En 1836, il a été invité à contribuer à une collection d'ouvrages sur le pouvoir, la sagesse et la bonté de Dieu manifestés dans la création.

Il accepta et écrivit un traité intitulé La main, son mécanisme et sa dotation vitale, comme conception évocatrice.

Bell a été fait chevalier par le roi Guillaume IV en 1831, et en 1835, il a accepté un poste de professeur de chirurgie et est retourné en Écosse.


Quelques résultats sur l'invariance de la traduction dans le système visuel humain

Quatre expériences ont été menées pour étudier la nature de l'invariance de la traduction visuelle chez l'homme. Dans toutes les expériences, les sujets ont été entraînés à faire la distinction entre une cible auparavant inconnue et deux distracteurs non cibles présentés à un emplacement rétinien fixe d'un côté du point de fixation. Dans une phase de test ultérieure, cette performance a été comparée à la performance lorsque les motifs étaient présentés soit au centre du point de fixation, soit à un emplacement de l'autre côté du point de fixation, à l'opposé de l'emplacement où les motifs ont été appris, mais où l'acuité était identique à ce qu'il était à l'emplacement appris. Deux paradigmes expérimentaux différents ont été utilisés. L'un a utilisé un dispositif de contrôle des mouvements oculaires (Expérience 1) pour s'assurer que l'œil ne pouvait pas se déplacer par rapport aux schémas à apprendre. Dans les trois autres expériences, la durée de présentation des motifs a été limitée à une période suffisamment courte pour empêcher les mouvements oculaires. Au cours de la période d'entraînement dans les expériences 1 et 2, l'emplacement de présentation des motifs était centré à 2,4 degrés à la périphérie, tandis que dans les expériences 3 et 4, l'excentricité de présentation était réduite à 0,86 et 0,49 degrés. Dans les quatre expériences, les performances ont chuté lorsque le motif a dû être reconnu à de nouvelles positions de test. Ce résultat suggère que le système visuel n'applique pas de transformation de transposition globale à l'image rétinienne pour compenser les traductions. Nous proposons qu'au lieu de cela, il décompose l'image en caractéristiques simples qui sont elles-mêmes plus ou moins invariantes à la traduction. Si dans une tâche donnée, les modèles peuvent être discriminés à l'aide de ces caractéristiques simples, alors l'invariance de la traduction se produira. Sinon, l'invariance de traduction échouera ou sera incomplète.


Contenu

En mathématiques, on peut considérer les propriétés d'échelle d'une fonction ou d'une courbe F (X) sous les remises à l'échelle de la variable x . C'est-à-dire que l'on s'intéresse à la forme de F (x) pour un certain facteur d'échelle λ , qui peut être considéré comme une remise à l'échelle de la longueur ou de la taille. L'exigence de F (X) pour être invariant sous tous les rééchelonnements est généralement considéré comme étant

pour un certain choix d'exposant Δ , et pour toutes les dilatations λ . Cela équivaut à f étant une fonction homogène de degré .

Un exemple de courbe invariante d'échelle est la spirale logarithmique, une sorte de courbe qui apparaît souvent dans la nature. En coordonnées polaires (r, ??) , la spirale peut s'écrire sous la forme

Compte tenu des rotations de la courbe, elle est invariante sous toutes les remises à l'échelle λ c'est-à-dire, ??(ou) est identique à une version tournée de ??(r) .

Géométrie projective Modifier

L'idée d'invariance d'échelle d'un monôme se généralise dans les dimensions supérieures à l'idée d'un polynôme homogène, et plus généralement à une fonction homogène. Les fonctions homogènes sont les habitants naturels de l'espace projectif, et les polynômes homogènes sont étudiés en tant que variétés projectives en géométrie projective. La géométrie projective est un domaine particulièrement riche des mathématiques dans ses formes les plus abstraites, la géométrie des schémas, elle a des liens avec divers sujets de la théorie des cordes.

Fractales Modifier

On dit parfois que les fractales sont invariantes d'échelle, bien que plus précisément, on devrait dire qu'elles sont auto-similaires. Une fractale est généralement égale à elle-même uniquement pour un ensemble discret de valeurs , et même alors, une translation et une rotation peuvent devoir être appliquées pour faire correspondre la fractale à elle-même.

Ainsi, par exemple, la courbe de Koch est mise à l'échelle avec ∆ = 1 , mais la mise à l'échelle n'est valable que pour les valeurs de ?? = 1/3 m pour l'entier n . De plus, la courbe de Koch s'échelonne non seulement à l'origine, mais, dans un certain sens, « partout » : des copies miniatures d'elle-même peuvent être trouvées tout au long de la courbe.

Certaines fractales peuvent avoir plusieurs facteurs d'échelle en jeu à la fois, une telle échelle est étudiée avec une analyse multi-fractale.

Les rayons périodiques externes et internes sont des courbes invariantes.

Si P(F ) est la puissance moyenne attendue à la fréquence f , puis le bruit s'échelonne comme

avec Δ = 0 pour le bruit blanc, Δ = −1 pour le bruit rose, et Δ = −2 pour le bruit brownien (et plus généralement le mouvement brownien).

Plus précisément, la mise à l'échelle dans les systèmes stochastiques concerne la probabilité de choisir une configuration particulière parmi l'ensemble de toutes les configurations aléatoires possibles. Plus de contexte est nécessaire ici. La probabilité et l'entropie sont certainement liées au choix d'une configuration particulière, mais il n'est pas évident de savoir comment l'invariance d'échelle est liée à cela. Cette vraisemblance est donnée par la distribution de probabilité.

Des exemples de distributions invariantes d'échelle sont la distribution de Pareto et la distribution de Zipfian.

Distributions de Tweedie invariantes à l'échelle Modifier

Distributions de tweedies sont un cas particulier de modèles de dispersion exponentielle, une classe de modèles statistiques utilisés pour décrire les distributions d'erreurs pour le modèle linéaire généralisé et caractérisés par la fermeture sous convolution additive et reproductive ainsi que sous transformation d'échelle. [1] Celles-ci incluent un certain nombre de distributions communes : la distribution normale, la distribution de Poisson et la distribution gamma, ainsi que des distributions plus inhabituelles comme la distribution Poisson-gamma composée, les distributions stables positives et les distributions extrêmement stables. Conséquence de leur invariance d'échelle inhérente Variables aléatoires de Tweedie Oui démontrer une variance var(Oui) pour signifier E(Oui) loi de puissance:

une et p sont des constantes positives. Cette variance à la loi de puissance moyenne est connue dans la littérature physique comme échelle de fluctuation, [2] et dans la littérature écologique comme la loi de Taylor. [3]

Les séquences aléatoires, régies par les distributions de Tweedie et évaluées par la méthode des classes d'expansion, présentent une relation biconditionnelle entre la variance de la loi de puissance moyenne et les autocorrélations de la loi de puissance. Le théorème de Wiener-Khinchin implique en outre que pour toute séquence qui présente une variance à la loi de puissance moyenne dans ces conditions se manifestera également 1/f bruit. [4]

Les Théorème de convergence de Tweedie fournit une explication hypothétique pour la large manifestation de l'échelle de fluctuation et 1/f bruit. [5] Cela nécessite, en substance, que tout modèle de dispersion exponentielle qui manifeste asymptotiquement une variance par rapport à la loi de puissance moyenne devra exprimer une fonction de variance qui entre dans le domaine d'attraction d'un modèle de Tweedie. Presque toutes les fonctions de distribution avec des fonctions génératrices de cumulant finies sont qualifiées de modèles de dispersion exponentielle et la plupart des modèles de dispersion exponentielle présentent des fonctions de variance de cette forme. Par conséquent, de nombreuses distributions de probabilité ont des fonctions de variance qui expriment ce comportement asymptotique, et les distributions de Tweedie deviennent des foyers de convergence pour un large éventail de types de données. [4]

Tout comme le théorème central limite exige que certains types de variables aléatoires aient comme foyer de convergence la distribution gaussienne et expriment le bruit blanc, le théorème de convergence de Tweedie exige que certaines variables aléatoires non gaussiennes expriment 1/f échelle de bruit et de fluctuation. [4]

Cosmologie Modifier

En cosmologie physique, le spectre de puissance de la distribution spatiale du fond diffus cosmologique est proche d'être une fonction invariante d'échelle. Bien qu'en mathématiques cela signifie que le spectre est une loi de puissance, en cosmologie le terme « invariant d'échelle » indique que l'amplitude, P(k) , des fluctuations primordiales en fonction du nombre d'onde, k , est approximativement constante, c'est-à-dire un spectre plat. Ce modèle est cohérent avec la proposition de l'inflation cosmique.

La théorie classique des champs est décrite de manière générique par un champ, ou un ensemble de champs, ??, qui dépendent des coordonnées, X. Les configurations de champ valides sont ensuite déterminées en résolvant des équations différentielles pour ??, et ces équations sont appelées équations de champ.

Pour qu'une théorie soit invariante à l'échelle, ses équations de champ doivent être invariantes sous une remise à l'échelle des coordonnées, combinée à une remise à l'échelle spécifiée des champs,

Le paramètre ?? est connue sous le nom de dimension d'échelle du champ, et sa valeur dépend de la théorie considérée. L'invariance d'échelle sera généralement maintenue à condition qu'aucune échelle de longueur fixe n'apparaisse dans la théorie. Inversement, la présence d'une échelle de longueur fixe indique qu'une théorie est ne pas invariant d'échelle.

Une conséquence de l'invariance d'échelle est que, étant donné une solution d'une équation de champ invariante d'échelle, nous pouvons automatiquement trouver d'autres solutions en redimensionnant à la fois les coordonnées et les champs de manière appropriée. En termes techniques, étant donné une solution, ??(X), on a toujours d'autres solutions de la forme

Invariance d'échelle des configurations de champ Modifier

Pour une configuration de champ particulière, ??(X), pour être invariant à l'échelle, nous exigeons que

?? est, encore une fois, la dimension d'échelle du champ.

Notons que cette condition est assez restrictive. En général, même les solutions d'équations de champ invariantes d'échelle seront ne pas être invariant à l'échelle, et dans de tels cas, la symétrie est dite spontanément brisée.

Électromagnétisme classique Modifier

Un exemple d'une théorie de champ classique invariante d'échelle est l'électromagnétisme sans charges ni courants. Les champs sont les champs électriques et magnétiques, E(X,t) et B(X,t), tandis que leurs équations de champ sont les équations de Maxwell.

Sans charges ni courants, ces équations de champ prennent la forme d'équations d'onde

c est la vitesse de la lumière.

Ces équations de champ sont invariantes sous la transformation

De plus, étant donné les solutions des équations de Maxwell, E(X, t) et B(X, t), il tient que EX,t) et BX,t) sont aussi des solutions.

Théorie des champs scalaires sans masse Modifier

Un autre exemple d'une théorie de champ classique invariante à l'échelle est le champ scalaire sans masse (notez que le nom scalaire n'est pas lié à l'invariance d'échelle). Le champ scalaire, ??(X, t) est une fonction d'un ensemble de variables spatiales, X, et une variable temporelle, t .

Considérons d'abord la théorie linéaire. Comme les équations du champ électromagnétique ci-dessus, l'équation du mouvement pour cette théorie est également une équation d'onde,

et est invariant sous la transformation

et il ne devrait donc pas être surprenant que la théorie des champs scalaires massifs soit ne pas invariant d'échelle.

Φ 4 théorie Modifier

Les équations de champ dans les exemples ci-dessus sont toutes linéaires dans les champs, ce qui signifie que la dimension d'échelle, , n'a pas été si importante. Cependant, on exige généralement que l'action du champ scalaire soit sans dimension, et cela fixe la dimension d'échelle de . En particulier,

où D est le nombre combiné de dimensions spatiales et temporelles.

Étant donné cette dimension d'échelle pour , il existe certaines modifications non linéaires de la théorie des champs scalaires sans masse qui sont également invariantes à l'échelle. Un exemple est la théorie 4 sans masse pour D =4. L'équation du champ est

(Notez que le nom φ 4 dérive de la forme du lagrangien, qui contient la quatrième puissance de φ .)

Lorsque D = 4 (par exemple trois dimensions spatiales et une dimension temporelle), la dimension d'échelle du champ scalaire est Δ =1. L'équation de champ est alors invariante sous la transformation

Le point clé est que le paramètre g doit être sans dimension, sinon on introduit une échelle de longueur fixe dans la théorie : Pour la théorie φ 4, ce n'est le cas que dans D =4. Notez que sous ces transformations l'argument de la fonction est inchangé.

La dépendance à l'échelle d'une théorie quantique des champs (QFT) est caractérisée par la façon dont ses paramètres de couplage dépendent de l'échelle d'énergie d'un processus physique donné. Cette dépendance énergétique est décrite par le groupe de renormalisation, et est codée dans les fonctions bêta de la théorie.

Pour qu'un QFT soit invariant à l'échelle, ses paramètres de couplage doivent être indépendants de l'échelle d'énergie, et cela est indiqué par la disparition des fonctions bêta de la théorie. De telles théories sont également connues sous le nom de points fixes du flux de groupe de renormalisation correspondant. [6]

Électrodynamique quantique Modifier

Un exemple simple d'un QFT invariant d'échelle est le champ électromagnétique quantifié sans particules chargées. Cette théorie n'a en fait aucun paramètre de couplage (puisque les photons sont sans masse et n'interagissent pas) et est donc invariante à l'échelle, un peu comme la théorie classique.

Cependant, dans la nature, le champ électromagnétique est couplé à des particules chargées, telles que des électrons. Le QFT décrivant les interactions des photons et des particules chargées est l'électrodynamique quantique (QED), et cette théorie n'est pas invariante à l'échelle. Nous pouvons le voir à partir de la fonction bêta QED. Cela nous indique que la charge électrique (qui est le paramètre de couplage dans la théorie) augmente avec l'augmentation de l'énergie. Par conséquent, alors que le champ électromagnétique quantifié sans particules chargées est invariant à l'échelle, QED est ne pas invariant d'échelle.

Théorie des champs scalaires sans masse Modifier

La théorie des champs scalaires quantifiés libres et sans masse n'a pas de paramètres de couplage. Par conséquent, comme la version classique, il est invariant à l'échelle. Dans le langage du groupe de renormalisation, cette théorie est connue sous le nom de point fixe gaussien.

Cependant, même si le classique sans masse ?? La théorie 4 est invariante à l'échelle dans =4, la version quantifiée est ne pas invariant d'échelle. Nous pouvons le voir à partir de la fonction bêta pour le paramètre de couplage, g.

Même si l'absence de masse quantifiée ?? 4 n'est pas invariant d'échelle, il existe des théories de champ scalaire quantifié invariant d'échelle autres que le point fixe gaussien. Un exemple est le Point fixe Wilson-Fisher, au dessous de.

Théorie des champs conforme Modifier

Les QFT invariants à l'échelle sont presque toujours invariants sous la symétrie conforme complète, et l'étude de ces QFT est la théorie des champs conformes (CFT). Les opérateurs dans un CFT ont une dimension d'échelle bien définie, analogue à la dimension d'échelle, , d'un domaine classique discuté ci-dessus. Cependant, les dimensions d'échelle des opérateurs dans un CFT diffèrent généralement de celles des champs dans la théorie classique correspondante. Les contributions supplémentaires apparaissant dans le CFT sont connues sous le nom de dimensions d'échelle anormales.

Échelle et anomalies conformes Modifier

L'exemple de la théorie φ 4 ci-dessus démontre que les paramètres de couplage d'une théorie quantique des champs peuvent être dépendants de l'échelle même si la théorie des champs classique correspondante est invariante à l'échelle (ou invariante conforme). Si tel est le cas, l'invariance d'échelle classique (ou conforme) est dite anormale. Une théorie classique des champs invariants à l'échelle, où l'invariance d'échelle est brisée par des effets quantiques, fournit une explication de l'expansion presque exponentielle de l'univers primitif appelée inflation cosmique, tant que la théorie peut être étudiée par la théorie des perturbations. [7]

En mécanique statistique, lorsqu'un système subit une transition de phase, ses fluctuations sont décrites par une théorie de champ statistique invariante d'échelle. Pour un système en équilibre (c. Les dimensions d'échelle dans de tels problèmes sont généralement appelées exposants critiques, et on peut en principe calculer ces exposants dans le CFT approprié.

Le modèle d'Ising Modifier

Un exemple qui relie de nombreuses idées dans cet article est la transition de phase du modèle d'Ising, un modèle simple de substances ferromagnétiques. Il s'agit d'un modèle de mécanique statistique, qui a également une description en termes de théorie des champs conforme. Le système se compose d'un réseau de sites de réseau, qui forment un réseau périodique de dimension D. A chaque site du réseau est associé un moment magnétique, ou spin, et ce spin peut prendre la valeur +1 ou -1. (Ces états sont également appelés respectivement vers le haut et vers le bas.)

The key point is that the Ising model has a spin-spin interaction, making it energetically favourable for two adjacent spins to be aligned. On the other hand, thermal fluctuations typically introduce a randomness into the alignment of spins. At some critical temperature, Tc , spontaneous magnetization is said to occur. This means that below Tc the spin-spin interaction will begin to dominate, and there is some net alignment of spins in one of the two directions.

An example of the kind of physical quantities one would like to calculate at this critical temperature is the correlation between spins separated by a distance r . This has the generic behaviour:

CFT description Edit

The fluctuations at temperature Tc are scale-invariant, and so the Ising model at this phase transition is expected to be described by a scale-invariant statistical field theory. In fact, this theory is the Wilson-Fisher fixed point, a particular scale-invariant scalar field theory.

Dans ce contexte, g(r) is understood as a correlation function of scalar fields,

Now we can fit together a number of the ideas seen already.

From the above, one sees that the critical exponent, η , for this phase transition, is also an anomalous dimension. This is because the classical dimension of the scalar field,

where D is the number of dimensions of the Ising model lattice.

So this anomalous dimension in the conformal field theory is the même as a particular critical exponent of the Ising model phase transition.

Note that for dimension ≡ 4−?? , η can be calculated approximately, using the epsilon expansion, and one finds that

In the physically interesting case of three spatial dimensions, we have ε =1, and so this expansion is not strictly reliable. However, a semi-quantitative prediction is that η is numerically small in three dimensions.

On the other hand, in the two-dimensional case the Ising model is exactly soluble. In particular, it is equivalent to one of the minimal models, a family of well-understood CFTs, and it is possible to compute η (and the other critical exponents) exactly,

Schramm–Loewner evolution Edit

The anomalous dimensions in certain two-dimensional CFTs can be related to the typical fractal dimensions of random walks, where the random walks are defined via Schramm–Loewner evolution (SLE). As we have seen above, CFTs describe the physics of phase transitions, and so one can relate the critical exponents of certain phase transitions to these fractal dimensions. Examples include the 2 critical Ising model and the more general 2 critical Potts model. Relating other 2 CFTs to SLE is an active area of research.

A phenomenon known as universality is seen in a large variety of physical systems. It expresses the idea that different microscopic physics can give rise to the same scaling behaviour at a phase transition. A canonical example of universality involves the following two systems:

Even though the microscopic physics of these two systems is completely different, their critical exponents turn out to be the same. Moreover, one can calculate these exponents using the same statistical field theory. The key observation is that at a phase transition or critical point, fluctuations occur at all length scales, and thus one should look for a scale-invariant statistical field theory to describe the phenomena. In a sense, universality is the observation that there are relatively few such scale-invariant theories.

The set of different microscopic theories described by the same scale-invariant theory is known as a universality class. Other examples of systems which belong to a universality class are:

    in piles of sand. The likelihood of an avalanche is in power-law proportion to the size of the avalanche, and avalanches are seen to occur at all size scales.
  • The frequency of network outages on the Internet, as a function of size and duration.
  • The frequency of citations of journal articles, considered in the network of all citations amongst all papers, as a function of the number of citations in a given paper. [citation requise]
  • The formation and propagation of cracks and tears in materials ranging from steel to rock to paper. The variations of the direction of the tear, or the roughness of a fractured surface, are in power-law proportion to the size scale.
  • The electrical breakdown of dielectrics, which resemble cracks and tears.
  • The percolation of fluids through disordered media, such as petroleum through fractured rock beds, or water through filter paper, such as in chromatography. Power-law scaling connects the rate of flow to the distribution of fractures.
  • The diffusion of molecules in solution, and the phenomenon of diffusion-limited aggregation.
  • The distribution of rocks of different sizes in an aggregate mixture that is being shaken (with gravity acting on the rocks).

The key observation is that, for all of these different systems, the behaviour resembles a phase transition, and that the language of statistical mechanics and scale-invariant statistical field theory may be applied to describe them.

Newtonian fluid mechanics with no applied forces Edit

In order to deduce the scale invariance of these equations we specify an equation of state, relating the fluid pressure to the fluid density. The equation of state depends on the type of fluid and the conditions to which it is subjected. For example, we consider the isothermal ideal gas, which satisfies

Computer vision Edit

In computer vision and biological vision, scaling transformations arise because of the perspective image mapping and because of objects having different physical size in the world. In these areas, scale invariance refers to local image descriptors or visual representations of the image data that remain invariant when the local scale in the image domain is changed. [8] Detecting local maxima over scales of normalized derivative responses provides a general framework for obtaining scale invariance from image data. [9] [10] Examples of applications include blob detection, corner detection, ridge detection, and object recognition via the scale-invariant feature transform.


The Protein Synthesis Machinery

In addition to the mRNA template, many molecules and macromolecules contribute to the process of Traduction. The composition of each component varies across taxa for instance, ribosomes may consist of different numbers of ribosomal RNAs (rRNAs) and polypeptides depending on the organism. However, the general structures and functions of the protein synthesis machinery are comparable from bacteria to human cells. Translation requires the input of an mRNA template, ribosomes, tRNAs, and various enzymatic factors.

Ribosomes

UNE ribosome is a complex macromolecule composed of catalytic rRNAs (called ribozymes) and structural ARNr, as well as many distinct polypeptides. Mature rRNAs make up approximately 50% of each ribosome. Prokaryotes have 70S ribosomes, whereas eukaryotes have 80S ribosomes in the cytoplasm and rough endoplasmic reticulum, and 70S ribosomes in mitochondries et chloroplastes. Ribosomes dissociate into large and small subunits when they are not synthesizing proteins and reassociate during the initiation of translation. Dans E. coli, les small subunit is described as 30S (which contains the 16S rRNA subunit), and the large subunit is 50S (which contains the 5S and 23S rRNA subunits), for a total of 70S (Svedberg units are not additive). Eukaryote ribosomes have a small 40S subunit (which contains the 18S rRNA subunit) and a large 60S subunit (which contains the 5S, 5.8S and 28S rRNA subunits), for a total of 80S. The small subunit is responsible for binding the mRNA template, whereas the large subunit binds tRNAs (discussed in the next subsection).

Each mRNA molecule is simultaneously translated by many ribosomes, all synthesizing protein in the same direction: reading the mRNA from 5′ to 3′ and synthesizing the polypeptide from the N terminus to the C terminus. The complete structure containing an mRNA with multiple associated ribosomes is called a polyribosome (ou polysome). In both bacteria and archée, before transcriptional termination occurs, each protein-encoding transcript is already being used to begin synthesis of numerous copies of the encoded polypeptide(s) because the processes of transcription and translation can occur concurrently, forming polyribosomes (Figure 2). The reason why transcription and translation can occur simultaneously is because both of these processes occur in the same 5′ to 3′ direction, they both occur in the cytoplasm of the cell, and because the RNA transcript is not processed once it is transcribed. This allows a prokaryotic cell to respond to an environmental signal requiring new proteins very quickly. In contrast, in eukaryotic cells, simultaneous transcription and translation is not possible. Although polyribosomes also form in eukaryotes, they cannot do so until RNA synthesis is complete and the RNA molecule has been modified and transported out of the nucleus.

Figure 2. In prokaryotes, multiple RNA polymerases can transcribe a single bacterial gene while numerous ribosomes concurrently translate the mRNA transcripts into polypeptides. In this way, a specific protein can rapidly reach a high concentration in the bacterial cell.

Transfer RNAs

Transfer RNAs (tRNAs) are structural RNA molecules and, depending on the species, many different types of tRNAs exist in the cytoplasm. Bacterial species typically have between 60 and 90 types. Serving as adaptors, each ARNt type binds to a specific codon on the mRNA template and adds the corresponding amino acid to the polypeptide chain. Therefore, tRNAs are the molecules that actually “translate” the language of RNA into the language of proteins. As the adaptor molecules of translation, it is surprising that tRNAs can fit so much specificity into such a small package. The tRNA molecule interacts with three factors: aminoacyl tRNA synthetases, ribosomes, and mRNA.

Mature tRNAs take on a three-dimensional structure when complementary bases exposed in the single-stranded RNA molecule hydrogen bond with each other (Figure 3). This shape positions the amino-acid binding site, called the CCA amino acid binding end, which is a cytosine-cytosine-adenine sequence at the 3′ end of the tRNA, and the anticodon at the other end. The anticodon is a three-nucleotide sequence that bonds with an mRNA codon through complementary base pairing.

An amino acid is added to the end of a tRNA molecule through the process of tRNA “charging,” during which each tRNA molecule is linked to its correct or cognate amino acid by a group of enzymes called aminoacyl tRNA synthetases. At least one type of aminoacyl tRNA synthetase exists for each of the 20 amino acids. During this process, the amino acid is first activated by the addition of adenosine monophosphate (AMP) and then transferred to the tRNA, making it a charged tRNA, and AMP is released.

Figure 3. (a) After folding caused by intramolecular base pairing, a tRNA molecule has one end that contains the anticodon, which interacts with the mRNA codon, and the CCA amino acid binding end. (b) A space-filling model is helpful for visualizing the three-dimensional shape of tRNA. (c) Simplified models are useful when drawing complex processes such as protein synthesis.

Pensez-y

  • Describe the structure and composition of the prokaryotic ribosome.
  • In what direction is the mRNA template read?
  • Describe the structure and function of a tRNA.

1. Introduction

The ability to recognize objects despite large variations in their position relative to us is a hallmark of animal vision (DiCarlo & Maunsell, 2003 Edelman, 1999 Riesenhuber & Poggio, 1999 Rolls, 2000 Ullman, 1996). Changes in the relative position can cause large changes in the retinal image that greatly exceed the differences between retinal images generated by different objects presented at the same location (when differences are quantified using linear projections). The problem is complicated by changes in the retinal images caused by scaling and rotation, as well as differences in pose, and illumination. For these reasons, understanding the computations required for mediating robust object recognition remains a challenging frontier of both computer science and neuroscience. Although this problem is solved in the brain and fast recognition within a fraction of second is possible (Thorpe, Fize, & Marlot, 1996), much remains to be understood about the underlying neural mechanisms. In this letter, we describe a spike-triggered method that can help map out how visual stimuli are represented in the brain.

One of the obstacles for characterizing the feature selectivity of these high-level visual neurons is that because such neurons are tuned to highly specific combinations of visual features, they do not respond well to noise and other stimuli without higher-order correlations. Therefore, up to now, feature selectivity of high-level visual neurons has been primarily studied with respect to reduced stimuli (Saleem, Tanaka, & Rockland, 1993 Wang, Tanaka, & Tanifuji, 1996 Wang, Tanifuji, & Tanaka, 1998) that are optimized for a particular neuron, sets of controlled naturalistic stimuli, such as isolated face images in a blank background (Desimone, Albright, Gross, & Bruce, 1984 Kobatake & Tanaka, 1994 Logothetis, Pauls, & Poggio, 1995 Rust & DiCarlo, 2010 Zoccolan, Kouh, Poggio, & DiCarlo, 2007), or parameterized stimulus sets where orientation, curvature, and spirality have been systematically varied (Desimone et al., 1984 Desimone & Schein, 1987 Gallant, Braun, & Van Essen, 1993 Gallant, Connor, Rakshit, Lewis, & Van Essen, 1996 Hegde & Van Essen, 2000, 2007 Kobatake & Tanaka, 1994 Pasupathy & Connor, 1999, 2001). These studies reveal the complexity of the feature selectivity of neurons in the ventral stream, including selectivity to faces and hands, but they leave open the possibility that the optimal stimulus for a given neuron may never have been presented. It has also been difficult to predict responses to novel stimuli that have not been used in the experiment.

Instead of using a set of reduced stimuli, an alternative approach is to take advantage of the fact that neurons throughout the ventral stream respond robustly to natural visual stimuli. Although average response rates to natural stimuli may be lower than to the optimal stimulus (Baddeley et al., 1997), they are still significantly higher than those elicited by noise inputs (Rainer, Augath, Trinath, & Logothetis, 2001). At the same time, natural stimulus ensembles can be made sufficiently diverse that they sample the neural response along many directions in the stimulus space, albeit not uniformly (Dong & Atick, 1995 Field, 1987 Ruderman & Bialek, 1994 Simoncelli & Olshausen, 2001 van Hateren & Ruderman, 1998). This approach has the potential to make it possible to characterize the feature selectivity of neurons without making prior assumptions about the actual type of optimal stimulus features. The approach is based on the linear-nonlinear (LN) model (Chichilnisky, 2001 de Boer & Kuyper, 1968 Meister & Berry, 1999 Schwartz, Pillow, Rust, & Simoncelli, 2006 Victor & Shapley, 1980), which describes the neural response as an arbitrary nonlinear function of the stimulus components along the relevant stimulus dimensions. Each of the relevant stimulus dimensions represents a spatiotemporal filter applied to incoming stimuli to account for neural responses. While original methods for finding receptive fields were designed to work with noise inputs (de Boer & Kuyper, 1968 Rieke, Warland, de Ruyter van Steveninck, & Bialek, 1997), analogous methods that are valid with natural stimuli have been recently developed for both linear (Gill, Zhang, Woolley, Fremouw, & Theunissen, 2006 Ringach, Hawken, & Shapley, 2002 Ringach, Sapiro, & Shapley, 1997 Theunissen et al., 2001 Theunissen, Sen, & Doupe, 2000 Woolley, Gill, & Theunissen, 2006 Woolley, Fremouw, Hsu, & Theunissen, 2005), and LN models by several groups (Paninski, 2003 Sharpee, Rust, & Bialek, 2004 Sharpee, 2007 Sharpee et al., 2006).

Despite the success of spike-triggered methods in characterizing the selectivity of V1 neurons to multiple stimulus features (Chen, Han, Poo, & Dan, 2007 Felsen, Touryan, Han, & Dan, 2005 Horwitz, Chichilnisky, & Albright, 2007 Rapela, Mendel, & Grzywacz, 2006 Rapela, Felsen, Touryan, Mendel, & Grzywacz, 2010 Rust, Schwartz, Movshon, & Simoncelli, 2005 Schwartz et al., 2006 Touryan, Lau, & Dan, 2002 Touryan, Felsen, & Dan, 2005), both the models of the neural response and the statistical methods used to select them will likely need to be significantly modified in order to be useful in extrastriate visual areas. The main reason is that in retinotopic space, accounting for translation-invariant selectivity, even to one relevant stimulus feature, requires a model with a large number of relevant dimensions. Although each of the relevant dimensions represents the same image feature, they differ in their centering, leading to a high dimensionality of the resultant LN model. Established methods that can simultaneously estimate a large number of relevant dimensions are guaranteed to work only with gaussian stimuli, such as white noise or correlated gaussian noise (Paninski, 2003 Schwartz et al., 2006). These include the methods of spike-triggered covariance (Bialek & de Ruyter van Steveninck, 2005 de Ruyter van Steveninck & Bialek, 1988 Schwartz et al., 2006 Schwartz, Chichilnisky, & Simoncelli, 2002), its information-theoretic generalization (Pillow & Simoncelli, 2006), and projection pursuit (Rapela et al., 2006 Rapela, Felsen, Touryan, Mendel, & Grzywacz, 2010). On the other hand, methods that estimate multiple filters from neural responses to natural stimuli (Sharpee et al., 2004) can estimate only a few filters because of the need to sample the joint multidimensional dependence of the spike probability on the relevant stimulus components (Rowekamp & Sharpee, 2011 Schwartz et al., 2006). It should be noted that spike-triggered covariance can be applied with natural stimuli (as in Touryan et al., 2005), but estimation methods that take higher-order stimulus statistics into account, such as projection pursuit and maximally informative dimensions, yield models with improved predictive power in accounting for V1 neural responses (Rapela et al., 2010).

Our approach here is to reduce the dimensionality by searching for one or several (in practice, two or three) image templates while allowing for the possibility that they could be jointly shifted to different positions within the visual space to elicit a spike. The method we propose here combines ideas from methods that address translation invariance but work primarily with noise inputs (Dimitrov, Sheiko, Baker, & Yen, 2009 Nishimoto, Ishida, & Ohzawa, 2006 Tjan & Nandy, 2006) and ideas from methods that can characterize feature selectivity of position-specific models with natural stimuli (e.g., Sharpee et al., 2004, 2006). The overall goal is to address what to our knowledge is a previously unsolved problem of how to characterize the feature selectivity of neurons that exhibit translation invariance based on their responses to natural stimuli. We propose to search for the most relevant feature (or a conjunction of features) for a given neuron, assuming that the probability of triggering the neural response is the same for all retinotopic positions to which the neuron responds (see Figure 1). This is an approximation, because real neurons do not exhibit perfect translation invariance rather, their responses decline with distance from the receptive field center (Boussaoud, Desimone, & Ungerleider, 1991 Desimone et al., 1984 Gross, Bender, & Rocha-Miranda, 1969 Gross, Rocha-Miranda, & Bender, 1972 Ito, Tamura, Fujita, & Tanaka, 1995 Kobatake & Tanaka, 1994 Leuschow, Miller, & Desimone, 1994 Logothetis et al., 1995 Missal, Vogels, Li, & Orban, 1999 Op de Beeck & Vogels, 2000 Richmond, Wurtz, & Sato, 1983 Sary, Vogels, & Orban, 1993 Schwartz, Desimone, Albright, & Gross, 1983 Tovee, Rolls, & Azzopardi, 1994). However, this approximation provides an approach for mapping out the receptive fields of high-level neurons that is complementary to the conventional spike-triggered approaches that work at a given retinotopic location only. At the same time, comparison of predictive power achieved by the two kinds of models—translation invariant or nontranslation invariant—could also be helpful in quantifying the emergence of invariance across the hierarchy of sensory representations.

(A) Model of neural response based on one translation-invariant stimulus feature. The spike probability represents a logical OR combination of responses from hidden, position-specific units that are selective for the same stimulus feature centered at different retinotopic coordinates. (B) An example of a discrete grid approximation that can be used to model invariance of neural responses to image translation. The shaded square denotes the spatial extent of the preferred image feature nine possible ways of centering the preferred template within the overall stimulus are shown.

(A) Model of neural response based on one translation-invariant stimulus feature. The spike probability represents a logical OR combination of responses from hidden, position-specific units that are selective for the same stimulus feature centered at different retinotopic coordinates. (B) An example of a discrete grid approximation that can be used to model invariance of neural responses to image translation. The shaded square denotes the spatial extent of the preferred image feature nine possible ways of centering the preferred template within the overall stimulus are shown.

Works with arbitrary stimuli, including natural stimuli.

Should in principle be capable of recovering an arbitrary complex stimulus feature ⁠ . That is, we do not assume that relevant stimulus features can be parameterized as Gabor functions (DeAngelis, Ohzawa, & Freeman, 1993) or curved line elements. Rather, these shapes should emerge as a result of the analysis.

Allows for nonlinearities in the neural responses in order to describe such properties as rectification and saturation.

Produces an estimate of the range and coarseness of translation invariance.

We note that the problem of characterizing translation-invariant feature selectivity can be thought of as complementary to the perceptual task of representing visual scenes in the presence of uncertainties introduced by fixational eye movements (Burak, Rokni, Meister, & Sompolinsky, 2010). Here, our goal is to estimate one or a few templates based on known stimuli and inferred relevant locations for each stimulus, whereas in the perceptual task, the goal is to infer unknown images based on known receptive fields of neuron and the inferred eye positions.

This letter is organized as follows. In section 2, we describe an approach for characterizing the feature selectivity of neurons whose responses exhibit translation invariance. Section 3 presents results on both model and real neurons (V1 complex cells). Section 4 contains concluding remarks, and section 5 describes the methods.


Key gene behind hallmark of Lou Gehrig’s disease identified

Stanford researchers identified a gene crucial to the formation of toxic proteins in amyotrophic lateral sclerosis and showed how it could inform potential therapies for the disease.

Aaron Gitler and his collaborators used experiments in yeast, in fruit flies and in cells derived from people with ALS to identify a gene linked with the formation of toxic protein clumps that are a hallmark of the disease.
Paul Sakuma

Inside the brains of patients with amyotrophic lateral sclerosis, a debilitating neurodegenerative disease, is a telltale sign that marks almost every case: clumps of toxic proteins.

Now, researchers from the Stanford University School of Medicine and their collaborators have pinpointed a key gene behind the formation of one type of these neuron-damaging aggregates. They’ve also shown how inhibiting the gene’s function curbs production of the harmful protein.

“We know that these protein-rich aggregates are a clear hallmark of ALS,” said Aaron Gitler, PhD, professor of genetics. “But this finding allows us a deeper look into how those aggregates are made, and potentially how we can hinder that process.”

The gene, RPS25, codes for a piece of cellular machinery necessary for creating the protein-based gunk that amasses in some forms of ALS and damages healthy neurons. When the gene’s activity was experimentally depleted — in yeast, in neurons derived from patients with ALS and in fruit flies — Gitler and his team saw levels of the lethal protein drop by about 50 percent across the board.

The team also tested the function of RPS25 in human cells modeling Huntington’s disease and spinocerebellar ataxia, two other neurodegenerative illnesses that have protein-aggregate “hallmarks” similar to ALS, said Shizuka Yamada, a graduate student in Gitler’s lab. There, too, inhibiting the gene helped tamp down the levels of bad protein.

It’s still early days, Yamada said, but hampering the RPS25 gene seems like a promising target for reducing the destructive proteins seen in ALS and even extending life span, as was seen in the fruit fly model of ALS with low activity levels of the gene.

A paper detailing the results of the research was published July 29 in Neurosciences de la nature. Gitler, who holds the Stanford Medicine Basic Science Professorship, is the senior author. Yamada is the lead author.

An alternate route

Also known as Lou Gehrig’s disease, ALS is a condition that kills off motor neurons, which are crucial to all physical tasks, from brushing one’s hair to breathing. The root cause behind every case is not always the same there’s a slew of genetic factors that play into the onset of ALS. Yet one gene is often the culprit. In ALS, it harbors a string of DNA that erroneously repeats itself.

It’s these DNA repeats that are transformed into the harmful proteins that build up in the brain. As the proteins amass, they interfere with healthy neurons, blocking the cells’ ability to function normally.

Outside of their toxic properties, what’s notable about the protein aggregates is that they aren’t made like other proteins found in the body, Yamada said. “These repeats actually shouldn’t be made into proteins at all,” she said. “They come from DNA that isn’t supposed to code for anything, and yet somehow the proteins come to be anyway.”

During run-of-the-mill protein formation, the ribosome, a sort of molecular machine that resides in the cell, processes messenger RNA, which contains genetic code based on DNA, and turns it into the raw materials of a protein. That process is called translation, and it’s initiated by a code in the mRNA that shows the ribosome where to start translating. The ALS-associated DNA repeats don’t have that start code, unlike normal mRNA.

“So regular translation doesn’t work with the repeats,” Yamada said. But it turns out there’s a molecular workaround: an unconventional translation process called repeat-associated non-AUG translation, or RAN translation, that turns the ALS repeats into destructive protein bodies.

Putting the brakes on RPS25

The exact mechanism of RAN translation and its role in human biology is not clear, but scientists do know that it still depends on the ribosome. To better understand the process, Gitler and Yamada turned to yeast, a simple organism that still has the major proteins and pathways of human cells. One at a time, the researchers decreased the function of individual yeast genes and monitored the fungus’ RAN function. When subdued, several genes swayed RAN function, but one in particular, RPS25, stood out. With the gene hindered, production of the toxic protein fell by 50 percent.

The researchers also saw a 50 percent dip in the toxic protein when they tested how neurons derived from patients with ALS fared without RPS25.

“We were really excited to see the decrease in repeat proteins carry over into human cells,” Yamada said. “It’s always pretty cool when yeast biology can directly inform human biology.” Because these cells came from patients who suffer from ALS, the research offered a reliable glimpse into how the neurons of individuals with ALS would respond to lower levels of RPS25, she said.

“Through genomic analyses, we could see that the ALS-associated repeats were still there the sequences hadn’t changed,” Yamada said. “What was changing was the output of the ribosome the repeats weren’t being made into toxic proteins nearly as often.”

Slashing a part of the cell’s protein-making machine might sound risky, but it turns out a defunct RPS25 gene doesn’t spoil normal protein production. Yet the researchers also showed that an inactive RPS25 gene affects more than just the ALS repeats the dysfunctional gene similarly stunted erroneous protein production in cellular models of Huntington’s disease and spinocerebellar ataxia, two neurodegenerative illnesses that have hallmark protein aggregates similar to ALS.

Moving toward more complexity

Finally, the researchers turned to fruit fly models of ALS to investigate how depleting RPS25 affected the insect overall. Not only did they see a similar decrease in toxic protein levels, they also saw an increased life span in the flies that lacked fully functional RPS25. Flies that harbored both the ALS mutation and a working RPS25 gene died by day 29, on average, while those that had the ALS mutation and lower amounts of RPS25 lived on average for 38 days. A healthy fruit fly lives about 50 days on average.

The findings are intriguing, Yamada said, but before the scientists can begin to pursue RPS25 as a drug target, the team has a couple boxes to tick off. The team now is investigating how a more complex animal model — like a mouse — would fair without RPS25.

“With the fruit flies, we tampered with the gene we didn’t remove it completely,” Yamada said. “Whether an animal can survive without the gene entirely is a big part of our next step.”

Furthermore, Yamada said, she and Gitler are still after a clearer picture of RAN translation in humans, overall. “Does it only occur under neurogenerative conditions? Or is there a broader role for it in healthy individuals?” elle a dit. “We don’t know the answer to those questions yet, and it will be crucial to figure out before pursuing RPS25 as a therapeutic target.”

Other Stanford co-authors of the study are graduate students Naomi Genuth and Nicholas Kramer postdoctoral scholar Rosslyn Grosely, PhD research technician Lisa Nakayama high school student Shirleen Fang research assistant Tai Dinger Maria Barna, PhD, assistant professor of genetics and of developmental biology and Joseph Puglisi, PhD, professor of structural biology.

Researchers from the Mayo Clinic, the University College London and the University of Southern California also contributed to the research.

Gitler is a member of Stanford Bio-X and the Wu Tsai Neurosciences Institute at Stanford.

The work was funded by the National Institutes of Health (grants R35NS097263, AI099506, AG064690, R35NS097273, P01NS099114, 2T32HG000044 and R01NS097850), the U.S. Department of Defense, the Muscular Dystrophy Association, the European Research Council and Alzheimer’s Research UK.

Stanford’s departments of Genetics, of Biology, of Developmental Biology and of Structural Biology also supported the work.


2. Accounting for Translation-Invariant Neural Responses

2.1. Review of Estimation Methods for Position-Specific Neurons.

Statistical description of neural responses along relevant and irrelevant dimensions. In the framework of the position-specific model, some images elicit spikes (black), and others do not (gray). Here, each of the images is represented as a point in a two-dimensional space, although it is a point in a high -dimensional space (each axis may correspond to the luminance of a pixel). Because the vertical dimension (X2) does not affect the spike probability, the probability distribution of stimuli along that dimension P(X2) is similar to the distribution of stimuli given a spike P(X2|spike). On the other hand, the horizontal dimension X1 can account for the spiking behavior because the spikes are observed whenever the stimulus component X1 exceeds a certain value.

Statistical description of neural responses along relevant and irrelevant dimensions. In the framework of the position-specific model, some images elicit spikes (black), and others do not (gray). Here, each of the images is represented as a point in a two-dimensional space, although it is a point in a high -dimensional space (each axis may correspond to the luminance of a pixel). Because the vertical dimension (X2) does not affect the spike probability, the probability distribution of stimuli along that dimension P(X2) is similar to the distribution of stimuli given a spike P(X2|spike). On the other hand, the horizontal dimension X1 can account for the spiking behavior because the spikes are observed whenever the stimulus component X1 exceeds a certain value.

2.2. Two-Step Optimization for Finding the Relevant Stimulus Dimensions of Translation-Invariant Neurons.

Characterizing feature selectivity with invariance is significantly more challenging because the responses of a translation-invariant neuron are based on stimulus features at multiple locations within the visual field. The first step in our analysis of an invariant neuron is to determine the most likely location where the response could have been triggered. The second step then uses the stimuli centered at these locations to improve the estimate of the template as in the noninvariant case in section 2.1. These two steps—updating the estimated locations and then updating the estimated template—are repeated until convergence.

For stimuli that did not elicit a spike, there is no uncertainty as to what happened at each of the possible locations: we know that none of the hidden units produced a spike. For these trials, we can associate any patch with the neural response for analysis using a position-specific model. Here we also select the patch with the greatest projection value as the one that was most likely to trigger the response (according to the current model) but did not. This choice corresponds to a maximal reduction in the entropy of the current model from incorporating the measured response, and thus is an example of maximally informative data point selection (Mackay, 1992). To summarize, in the first step of optimization, we determine for each stimulus the maximum projection across different shifts of the template ⁠ .


Voir la vidéo: Подробно и наглядно показываем слабые места пятёрки BMW E60. (Août 2022).