Difference between revisions of "Artificial Intelligence/es"

From Eyewire
Jump to: navigation, search
(Created page with "Las imágenes neuronales en 3D de Eyewire se basan en imágenes de microscopio electrónico en serie (EM en s...")
(Created page with "Una herramienta que tenemos para ayudar a acelerar el proceso de construcción se llama segmentación semiautomática. Esta característica le permite a la computadora juntar...")
 
(7 intermediate revisions by the same user not shown)
Line 1: Line 1:
 
Las imágenes neuronales en 3D de Eyewire se basan en imágenes de [[Microscopia electrónica de barrido de cara en serie (SBFSEM)|microscopio electrónico en serie]] (EM en serie) de neuronas. Lo que estamos haciendo es tomar una serie de imágenes en 2D y apilarlas una encima de la otra para crear el 3D.   
 
Las imágenes neuronales en 3D de Eyewire se basan en imágenes de [[Microscopia electrónica de barrido de cara en serie (SBFSEM)|microscopio electrónico en serie]] (EM en serie) de neuronas. Lo que estamos haciendo es tomar una serie de imágenes en 2D y apilarlas una encima de la otra para crear el 3D.   
  
The purpose of the AI we use is to separate neurites (the cell’s branches) from each other. Early EM image tracing was done without computer aid, and it would take over a decade to find the connections between just a few hundred cells. New smart technologies allow the computer to aid us in tracing cells in a more efficient way.   
+
El propósito de la IA que utilizamos es separar las neuritas (las ramas de la célula) unas de otras. El rastreo temprano de la imagen EM se realizó sin ayuda de computadora, y llevaría más de una década encontrar las conexiones entre unos pocos cientos de células. Las nuevas tecnologías inteligentes permiten que la computadora nos ayude a rastrear las células de una manera más eficiente.   
  
===Labeling Individual Objects===
+
===Etiquetado de Objetos Individuales===
  
In the first stage we begin to label individual objects.  Usually we begin with a human tracer who identifies and colors all the objects in a given volume. The results become training data that help develop algorithms the AI will use in future volumes. If we only have a small sample of training data the AI may “overlearn” it and not be able to generalize properly for new data sets. So the more training data we can feed into the AI, the better. Eyewire is a good source of user data that we can utilize to improve our algorithms.   
+
En la primera etapa comenzamos a etiquetar objetos individuales. Por lo general, comenzamos con un marcador humano que identifica y colorea todos los objetos en un volumen determinado. Los resultados se convierten en datos de entrenamiento que ayudan a desarrollar algoritmos que la IA utilizará en volúmenes futuros. Si solo tenemos una pequeña muestra de datos de entrenamiento, la IA puede "sobre-aprender" y no poder generalizar adecuadamente para nuevos conjuntos de datos. Así que cuantos más datos de entrenamiento podamos introducir en la IA, mejor. Eyewire es una buena fuente de datos de usuario que podemos utilizar para mejorar nuestros algoritmos.   
  
===Affinity Graph Labeling===
+
===Etiquetado de Gráficos de Afinidad===
  
The next stage gives us a more sophisticated way of determining where boundaries lie between cell branches. This is known as “affinity graph labeling.”  The affinity graph considers all the material in a given segment and makes decisions about where the boundaries lie between objects. The AI will look at each voxel, or “volume pixel” (imagine a 3D pixel), and determine the probability that it belongs to the same object as it’s neighbors. By determining the “affinity” any given voxel has with all adjacent voxels, the AI can begin to group objects and separate them from one another.
+
La siguiente etapa nos brinda una forma más sofisticada de determinar dónde se encuentran los límites entre las ramas de las células. Esto se conoce como "etiquetado de gráfico de afinidad". El gráfico de afinidad considera todo el material en un segmento dado y toma decisiones sobre dónde se encuentran los límites entre los objetos. La IA examinará cada vóxel o "píxel de volumen" (imagine un píxel 3D) y determinará la probabilidad de que pertenezca al mismo objeto que sus vecinos. Al determinar la "afinidad" que cualquier voxel dado tiene con todos los voxels adyacentes, la IA puede comenzar a agrupar objetos y separarlos entre sí.
  
The AI determines boundaries between objects by the “probability” that a voxel belongs to the same object as it’s neighbors. Our images are set at a low threshold of probability that segments are connected. This means that the machine won’t connect two groups of pixels unless it is fairly certain they belong to the same segment, and are bounded by the same border.  This helps to minimize [[Mergers|mergers]], but means this AI is more hesitant to connect large pieces of a cell branch.   
+
La IA determina los límites entre los objetos por la "probabilidad" de que un voxel pertenezca al mismo objeto que sus vecinos. Nuestras imágenes se establecen en un umbral bajo de probabilidad de que los segmentos estén conectados. Esto significa que la máquina no conectará dos grupos de píxeles a menos que sea bastante seguro de que pertenecen al mismo segmento y están delimitados por el mismo borde. Esto ayuda a minimizar [[Fusiones|fusiones]], pero significa que esta IA es más indecisa para conectar grandes piezas de una rama celular.   
  
===Semiautomated Segmentation===
+
===Segmentación Semiautomatizada===
  
One tool we do have to help speed up the construction process is called semiautomated segmentation. This feature allows the computer to piece together branch fragments it believes are correct. This means that the human user has less work to do when he or she manually connects segments. The more the computer learns how to piece together connected segments, the less effort there is for the human user.
+
Una herramienta que tenemos para ayudar a acelerar el proceso de construcción se llama segmentación semiautomática. Esta característica le permite a la computadora juntar fragmentos de ramas que considera correctos. Esto significa que el usuario humano tiene menos trabajo que hacer cuando conecta manualmente los segmentos. Cuanto más aprende la computadora a juntar segmentos conectados, menos esfuerzo hay para el usuario humano.
  
 
====References====
 
====References====

Latest revision as of 23:06, 19 July 2019

Las imágenes neuronales en 3D de Eyewire se basan en imágenes de microscopio electrónico en serie (EM en serie) de neuronas. Lo que estamos haciendo es tomar una serie de imágenes en 2D y apilarlas una encima de la otra para crear el 3D.

El propósito de la IA que utilizamos es separar las neuritas (las ramas de la célula) unas de otras. El rastreo temprano de la imagen EM se realizó sin ayuda de computadora, y llevaría más de una década encontrar las conexiones entre unos pocos cientos de células. Las nuevas tecnologías inteligentes permiten que la computadora nos ayude a rastrear las células de una manera más eficiente.

Etiquetado de Objetos Individuales

En la primera etapa comenzamos a etiquetar objetos individuales. Por lo general, comenzamos con un marcador humano que identifica y colorea todos los objetos en un volumen determinado. Los resultados se convierten en datos de entrenamiento que ayudan a desarrollar algoritmos que la IA utilizará en volúmenes futuros. Si solo tenemos una pequeña muestra de datos de entrenamiento, la IA puede "sobre-aprender" y no poder generalizar adecuadamente para nuevos conjuntos de datos. Así que cuantos más datos de entrenamiento podamos introducir en la IA, mejor. Eyewire es una buena fuente de datos de usuario que podemos utilizar para mejorar nuestros algoritmos.

Etiquetado de Gráficos de Afinidad

La siguiente etapa nos brinda una forma más sofisticada de determinar dónde se encuentran los límites entre las ramas de las células. Esto se conoce como "etiquetado de gráfico de afinidad". El gráfico de afinidad considera todo el material en un segmento dado y toma decisiones sobre dónde se encuentran los límites entre los objetos. La IA examinará cada vóxel o "píxel de volumen" (imagine un píxel 3D) y determinará la probabilidad de que pertenezca al mismo objeto que sus vecinos. Al determinar la "afinidad" que cualquier voxel dado tiene con todos los voxels adyacentes, la IA puede comenzar a agrupar objetos y separarlos entre sí.

La IA determina los límites entre los objetos por la "probabilidad" de que un voxel pertenezca al mismo objeto que sus vecinos. Nuestras imágenes se establecen en un umbral bajo de probabilidad de que los segmentos estén conectados. Esto significa que la máquina no conectará dos grupos de píxeles a menos que sea bastante seguro de que pertenecen al mismo segmento y están delimitados por el mismo borde. Esto ayuda a minimizar fusiones, pero significa que esta IA es más indecisa para conectar grandes piezas de una rama celular.

Segmentación Semiautomatizada

Una herramienta que tenemos para ayudar a acelerar el proceso de construcción se llama segmentación semiautomática. Esta característica le permite a la computadora juntar fragmentos de ramas que considera correctos. Esto significa que el usuario humano tiene menos trabajo que hacer cuando conecta manualmente los segmentos. Cuanto más aprende la computadora a juntar segmentos conectados, menos esfuerzo hay para el usuario humano.

References

Turaga, S., Briggman, K., Helmstaedter, M., Denk, W., & Seung, S. "Maximin Affinity Learning of Image Segmentation". 28 Nov 2009 http://arxiv.org/pdf/0911.5372.pdf

Turaga, Srinivas C. et al. “Convolutional Networks Can Learn to Generate Affinity Graphs for Image Segmentation.” Neural Computation 22.2 (2011): 511-538. © 2009 Massachusetts Institute of Technology http://dspace.mit.edu/handle/1721.1/60924