You do not have permission to edit this page, for the following reason:

You are not allowed to execute the action you have requested.


You can view and copy the source of this page.

x
 
1
==Resumen==
2
3
En este trabajo presentamos un sistema de posicionamiento de visión activa para el escaneo 3D del interior de piezas. El diseño del 
4
sistema propuesto consta de dos módulos: un sistema de dimensionamiento 2D de visión activa, y un sistema que posiciona el módulo de 
5
visión activa. El sistema de posicionamiento es capaz de determinar la profundidad del sistema de dimensionamiento 2D de visión 
6
activa en el interior del objeto a escanear usando varios sensores. Las principales contribuciones de este trabajo son la 
7
caracterización del sistema de dimensionamiento 2D, y el desarrollo de algoritmos de posicionamiento de la luz activa con énfasis en 
8
el modelado y fusión de sensores. El sistema puede utilizarse como un sistema de dimensionamiento en aplicaciones industriales como 
9
la industria metal mecánica, la aeronáutica, la medicina, en el control de calidad y en áreas de visión por computadora.
10
11
'''Palabras clave''': Estimación de la posición, procesamiento de imágenes, fusión de datos, modelado sensorial
12
13
==Abstract==
14
15
In this work we present an active positioning system for 3D scan of interior parts. The design of the proposed system consists of two modules: an active 2D dimensional system and positional system based on active vision. The active 2D dimensional system is able to determine the depth of the 2D dimensional system inside the object to be scanned using several sensors.
16
The main contributions of this work are the characterization of the 2D dimensional system and the development of active light positioning algorithms with emphasis on the modeling and fusion of the sensors. The system can be used as a dimensional system in industrial applications such as the metal mechanical industry, aeronautics industry, medicine, quality control and computer vision.
17
18
'''Keywords''': Pose estimation, image processing, data fusion, sensor models
19
20
==1. Introducción==
21
22
En este trabajo presentamos una propuesta de un sistema de posicionamiento de luz activa para el escaneo 3D del interior de piezas 
23
industriales con gran utilidad en diferentes tipos de industria como la metal mecánica, la aeronáutica, la militar y la medicina que 
24
requieren constantemente la medición de dimensiones internas de la pieza bajo inspección. Como ejemplos de aplicación podemos 
25
mencionar la medición del interior del cilindro maestro que forma parte del sistema de frenado de los autos, el escaneo 3D del 
26
interior del cuerpo humano, la medición en el interior de tuberías, la medición del interior de botellas hechas de plástico, entre 
27
otros ([[#img-1|Figura 1]]). El presente trabajo propone el uso de un sistema de medición capaz de obtener la posición de la luz activa 
28
para poder dimensionar el interior del objeto, este sistema consta de dos módulos: un sistema de dimensionamiento 2D de visión 
29
activa, y un sistema de posicionamiento que calcula la profundidad del sistema de dimensionamiento 2D de visión activa. La 
30
profundidad es calculada por la información proveniente de varios sensores de forma independiente los cuales son fusionados para 
31
obtener una medición de mayor precisión y exactitud. 
32
33
<div id='img-1'></div>
34
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: 65%;"
35
|-
36
| style="padding:10px;" | [[File:Draft_Gonzalez-Barbosa_236306777_4026_partes.jpg|600px]]
37
|- style="text-align: center; font-size: 75%;"
38
| colspan="1" style="padding-bottom:10px;" | '''Figura 1'''. (a) Anillo patrón. (b) Cilindro maestro. (c) Flecha de velocidad constante. (d) Parte de tren de aterrizaje para aviones. (e) Botellas de plástico. (f) Tubos. (g) Rodamientos para motor. (h) Ducto de refrigerador
39
|}
40
41
42
El sistema de dimensionamiento del interior de piezas con difícil acceso está basado en un fibroscopio modificado. La modificación 
43
consiste en la sustitución del sistema de iluminación original del fibroscopio por un sistema que proyecta una línea de luz. Esta 
44
línea de luz revela una sección transversal del interior del objeto bajo estudio. La línea de luz se obtiene mediante un LED de 
45
potencia encerrado entre 2 placas y unido por una extensión a la punta del fibroscopio ([[#img-2|Figuras 2]](a) y (b)). Las imágenes de 
46
diferentes secciones transversales del objeto son capturadas por una cámara conectada al ocular del fibroscopio por medio de un 
47
video acoplador ([[#img-2|Figura 2]](c)).
48
<div id='img-2'></div>
49
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: 70%;"
50
|-
51
| style="padding:10px;" | [[File:Draft_Gonzalez-Barbosa_236306777_1609_fig2_comp.jpg|600px]]
52
|- style="text-align: center; font-size: 75%;"
53
| colspan="1" style="padding-bottom:10px;" | '''Figura 2'''. Sistema de visión activa para el dimensionamiento del interior de objetos. (a) y (b) Generación de la línea de luz. (c) Cámara conectada al ocular del fibroscopio por medio de un video acoplador
54
|}
55
56
57
El sistema que determina la profundidad de la visión activa, está conformado por un sistema de visión, un sensor magnético y un 
58
odómetro. El sistema de visión consta de una cámara y de un patrón de referencia pegado en las placas del sistema de iluminación, 
59
unidos al sistema de guiado del fibroscopio que componen al sistema de visión activa. El patrón está constituido por una matriz de 8 
60
columnas de círculos y 8 renglones de círculos de color blanco con fondo negro. La cámara es del tipo endoscopio digital flexible de 
61
7 mm de diámetro y una distancia de trabajo de 150 mm y captura imágenes con una resolución de 640x480 pixeles. El sensor magnético 
62
funciona como un potenciómetro cuyo valor de resistencia está relacionado con el valor de la posición, este puede adherirse a la 
63
pieza bajo medición, la lectura del sensor magnético se realiza mediante un módulo Bluetooth. El odómetro se coloca en forma 
64
paralela a la cámara y se desplaza en dirección al eje óptico de la cámara. Nuestra configuración del sistema está diseñado para una 
65
distancia óptima de 150 mm de profundidad. La principal aportación de este trabajo está centrada en el módulo de posicionamiento del 
66
sistema de dimensionamiento. La contribución de este módulo es la adaptación de un sistema de visión junto con la integración de 
67
sensores de desplazamiento lineal de bajo costo y fácil adaptación; un sensor magnético y un odómetro que es desarrollado por 
68
nosotros, para calcular el posicionamiento del sistema. En particular, el enfoque consiste en fusionar las mediciones provenientes 
69
de los sensores con el  fin de lograr estimaciones del posicionamiento del sistema más exactas, el cálculo de la posición es formulada utilizando técnicas de estimación como los filtros FK y FP que modelan el comportamiento lineal del sistema, ambos métodos 
70
han sido implementados con el propósito de reducir el error de la estimación resultante. La novedad de este trabajo es el desarrollo 
71
de un método de posicionamiento para el sistema de visión activa para la mejora del dimensionamiento de objetos.
72
73
==2. Estado del arte==
74
75
El sistema de escaneo tridimensional presentado está compuesto por un módulo de dimensionamiento de visión activa y un módulo de 
76
posicionamiento. El módulo de visión activa consta de un fibroscopio y un generador de luz. El módulo de posicionamiento está 
77
formado por un sistema de visión, un sensor magnético y un odómetro. La aplicación del sistema de medición se basa en la 
78
determinación de la profundidad del sistema de dimensionamiento 2D de visión activa, para poder dimensionar el interior del objeto 
79
con este sistema, cada componente ó todo el sistema de visión debe ser calibrado. Son pocos los artículos que especifican métodos 
80
particulares para calibrar una cámara conectada a un fibroscopio utilizada como parte del sistema de escaneo y que proponen un 
81
sistema de posicionamiento de luz activa con varios sensores para el dimensionamiento de objetos, en esta sección presentamos 
82
algunos trabajos comparativos con el presente trabajo.
83
84
===2.1 Visión Activa===
85
86
Los artículos que describen la calibración de la cámara conectada al ocular de un endoscopio los podemos dividir en dos grupos: los 
87
que se basan en la técnica propuesta por [1] como [2,3,4], y los que realizan la calibración considerando una lente de pescado 
88
(lente fish-eye) con un ángulo de visión superior a los 45 grados como los propuestos por [5,6,7,8]. El trabajo presentado 
89
por [9] consta de un sistema catadióptrico formado por un endoscopio y un espejo esférico. Los autores calibran el sistema de dos 
90
formas: usando el modelo pinhole presentado en [1] donde la distorsión radial modela la curvatura del espejo y proponen un modelo 
91
propio para el sistema. 
92
93
Varias de las publicaciones para el escaneo 3D de piezas huecas utilizando endoscopios rígidos o flexibles se encuentran en el campo 
94
de la medicina, por ejemplo [10-19] utilizan piezas de referencia para validar 
95
los escaneos 3D en el interior del cuerpo humano, por lo que bien pudieran ser utilizadas en el sector industrial. Los trabajos que 
96
utilizan endoscopios rígidos o  flexibles para escaneos 3D de utilidad en la industria son: [20,21,22,23,24,25]. En 
97
[20] se desarrolló un robot para inspeccionar tuberías con diámetros entre 20 cm y 50 cm, su sistema emite luz estructurada  para 
98
escanear tridimensionalmente el interior de las tuberías. En [21] se menciona que la mayoría de los trabajos dedicados a escaneos 3D 
99
a través de endoscopios han sido enfocados a patentes, el método de calibración de la cámara descrito es similar a nuestro trabajo, 
100
incluso la manera de comprobar la exactitud del sistema, ya que sigue la ideología de nuestro trabajo usando piezas de referencia. 
101
En [22] se utiliza un videoscopio y un escáner láser para realizar los escaneos 3D, la manera de comprobar la exactitud es con 
102
piezas de referencia y su trabajo está enfocado al área médica.
103
104
De acuerdo con [23], existen pocas publicaciones que describen el escaneo 3D de piezas huecas a partir de imágenes adquiridas con 
105
fibroscopios monoculares. Los trabajos [26,27], al igual que nosotros, utilizan un fibroscopio y escanean en 2D secciones 
106
transversales que luego posicionan mediante otro sistema. Sin embargo, [26,27] se basan en un enfoque de iluminación activa 
107
utilizando un espejo cónico para proyectar un rayo láser en forma de anillo sobre la superficie interior de la tráquea con el fin de 
108
encontrar estenosis. En el trabajo de [10] al igual que nosotros, proyectan un haz de luz para resaltar la superficie a medir, para 
109
ello utilizan un galvanómetro con el fin de resaltar diferentes zonas en el interior del órgano. Este trabajo encuentra también la 
110
relación angular entre la cámara y el láser con el fin de calcular coordenadas 3D. Para lograr el escaneo 3D, [16], proyecta un 
111
láser de color verde con el fin de triangular haciendo uso del láser y la cámara. [19] desarrolló su propio escáner endoscópico, su 
112
trabajo al igual que el nuestro proyecta uno o más anillos en el interior a escanear, con dichos anillos y una lente catadióptrica 
113
conectada a la cámara puede capturar puntos en 3D. En [23] el escaneo 3D es a partir de la extracción de puntos característicos de 
114
las imágenes y al igual que en este trabajo filtran las estructuras de panal de abeja para mejorar la calibración de la cámara y los 
115
escaneos 3D. [24] desarrollaron un sistema para inspeccionar barrenos que utiliza un endoscopio rígido y un proyector láser que 
116
proyecta un patrón circular. El sistema es guiado por un brazo robótico e inspecciona diámetros de barrenos entre 4 mm y 50 mm con 
117
una profundidad de 100 mm. [25] presentan una técnica conocida como Tomografía de Coherencia Óptica (OCT) para el escaneo 3D, 
118
también utilizaron un espejo cónico para la iluminación. Esta técnica no incluye componentes electro-mecánicos en la punta de la 
119
sonda. Dos revisiones que tratan el escaneo 3D utilizando endoscopios y análisis de imágenes tanto en el área médica como la 
120
industrial son presentados en [28,29]. Ninguna de estas revisiones presenta el diseño de un sistema de posicionamiento similar a 
121
nuestro trabajo, por lo que se puede considerar a nuestro sistema como innovador tomando en cuenta el sistema de iluminación 
122
propuesto, las metodologías para calibrar el sistema, la  integración de los sensores y la forma de calcular el posicionamiento de 
123
la luz activa y evaluar los errores de medición y su incertidumbre, donde la principal aportación es el desarrollo del sistema de 
124
posicionamiento.
125
126
La [[#tab-1|Tabla 1]] muestra las principales características que presenta nuestro sistema para escanear el interior de piezas comparado con 
127
otros sistemas. Los artículos presentados en esta tabla utilizan luz estructurada con uno o varios planos, o proyectan luz con 
128
formas conocidas. Los trabajos que no usan luz estructurada, [23], detectan características en la imagen que son seguidas mientras 
129
el sistema de visión calibrado se desplaza de manera controlada, usando el método de factorización las características seguidas son 
130
escaneadas tridimensionalmente. La mayoría de los trabajos usan una referencia con el propósito de transformar las unidades de 
131
pixeles a unidades métricas. Pocos son los trabajos que hacen un análisis del error y de las incertidumbres del sistema de medición.
132
133
134
<div class="center" style="width: auto; margin-left: auto; margin-right: auto;font-size: 75%;">
135
'''Tabla 1'''. Principales características de nuestro sistema de medición de interiores comparado con otras propuestas</div>
136
<div id='tab-1'></div>
137
<div class="center" style="width: auto; margin-left: auto; margin-right: auto;">
138
{| class="wikitable" style="margin: 1em auto 0.1em auto;border-collapse: collapse;font-size:85%;width:50%;" 
139
|- style="text-align:center;"
140
| Ref.    
141
| A)   
142
| B)  
143
| C)  
144
| D)  
145
| E)  
146
| F)  
147
| G)
148
|-style="text-align:center;"
149
| [26]       
150
| x  
151
| x
152
| 
153
| 
154
| 
155
| 
156
| x
157
|-style="text-align:center;"
158
| [27]       
159
| x  
160
| x  
161
|
162
|
163
|
164
|
165
|
166
|-style="text-align:center;"
167
|   [10]      
168
| x  
169
| x  
170
| x    
171
|
172
|
173
|
174
|
175
|-style="text-align:center;"
176
|    [16]       
177
| x  
178
| x  
179
| x   
180
|
181
|
182
|
183
|
184
|-style="text-align:center;"
185
|    [19]       
186
| x 
187
| 
188
| x 
189
|
190
|
191
|
192
|
193
|-style="text-align:center;"
194
|    [20]       
195
| x  
196
| x     
197
| 
198
| x  
199
|
200
|
201
|
202
|-style="text-align:center;"
203
|    [21]       
204
| x  
205
| x  
206
| x 
207
| x     
208
| 
209
| 
210
| x
211
|-style="text-align:center;"
212
|    [22]       
213
| x    
214
| 
215
| 
216
| x   
217
|
218
|
219
|
220
|-style="text-align:center;"
221
|    [23]    
222
| 
223
| x     
224
| 
225
| x 
226
|
227
|
228
|
229
|-style="text-align:center;"
230
|    [24]      
231
| x  
232
| x 
233
| x  
234
| x  
235
|
236
|
237
|
238
|-style="text-align:center;"
239
|    [25]        
240
| x  
241
| x  
242
| x  
243
| x 
244
|
245
|
246
|
247
|-style="text-align:center;"
248
| Nuestro trabajo  
249
| x 
250
| x 
251
| x  
252
| x  
253
| x  
254
| x  
255
| x
256
|}
257
</div>
258
259
<div class="left" style="width: auto; margin-left: auto; margin-right: auto;font-size: 75%;width:60%;">
260
A) Uso de luz estructurada, B) Uso endoscopio o fibroscopio, C) Uso de referencias,
261
D) Aplicación Industrial, E) Cálculo POSE de luz, F) Cálculo del error e incertidumbre, G) Cálculo de profundidad.
262
<br /></div>
263
264
===2.2 Determinación de la profundidad===
265
266
Existen en la literatura trabajos relacionados con la estimación de la posición basados en la visión y la integración de sensores. 
267
Algunos de los trabajos que utilizan sistemas de visión para calcular la posición de los objetos utilizando información proveniente 
268
de las imágenes capturadas por la cámara son [30-32]. Autores como [33] realizan una estimación de la posición utilizando 
269
un sistema de múltiples cámaras, la configuración de estos sistemas combinan las observaciones de todas las cámaras para calcular 
270
los parámetros de rotación y traslación del sistema a partir de una secuencia de imágenes. En [34] presentan un método que permite 
271
calcular los valores de la posición y rotación de la navegación de una cámara monocular, calculan directamente los parámetros de 
272
movimiento a partir de una serie de imágenes y estiman la precisión de los parámetros. El trabajo propuesto por [35] aborda el 
273
problema de localización utilizando la aplicación de un algoritmo de mapeo probabilístico y localización simultáneos (SLAM) 
274
utilizando una sola cámara. El algoritmo SLAM permite generar mapas probabilísticos del entorno dados los puntos de las proyecciones 
275
de la imagen; con los mapas obtenidos es posible generar trayectorias de navegación.
276
277
Otros trabajos utilizan múltiples sensores como láser, giroscopios, GPS, etc. Para obtener información del posicionamiento de un 
278
objeto y mejorar la estimación de la posición de este, que se basan en métodos probabilísticos para fusionar los datos de los 
279
sensores como el filtro de Kalman [36], mezcla de gaussianas [37], localización de markov para entornos dinámicos como [38], etc. En 
280
el trabajo de [39] se describe la implementación de algoritmos de navegación para determinar la posición de un robot móvil a partir 
281
de la estimación del odómetro cuando este se mueve en un entorno conocido, donde muestran la integración de odómetros en 
282
aplicaciones de robótica móvil, el robot puede rotar y trasladarse a través del entorno y a su vez medir estos movimientos para su 
283
localización. Otro sistema de localización de un robot móvil en un ambiente estructurado es el desarrollado por [40] su sistema 
284
combina un sistema de visión omnidirecional junto con un odómetro, calculan una estimación fiable de la posición debido a que 
285
realiza un ajuste en las mediciones al combinar los datos de los sensores utilizando un método de filtrado estadístico (EKF). En 
286
[41], plantean el problema de la localización y control de posición de un robot móvil mediante el uso de sensores y la fusión de 
287
datos obtenidos de estos sensores, primero son corregidos los datos obtenidos por los odómetros del robot y después retroalimentan 
288
el EKF para tener mayor control de la posición. Otro enfoque para resolver el problema de localización de un objeto es el trabajo 
289
presentado por [42] donde se utiliza un sistema de detección de posición lineal, utilizando una serie de sensores magneto 
290
resistivos (MR) y señales de acondicionamiento electrónico. Los sensores se utilizan para determinar la posición de un imán que está unido a un objeto en movimiento, estos sensores miden la relación de la posición del imán y la función del campo magnético para determinar la posición del objeto [43], en este trabajo se describe un nuevo sensor de desplazamiento magnético que mide la posición de un imán a 
291
lo largo de dos ejes. El cálculo de la posición se consigue midiendo la dirección del campo magnético. Los sensores utilizados en 
292
este trabajo son dos circuitos de montaje superficial, a diferencia del sensor que utilizamos en nuestro trabajo que es un sensor 
293
magnético de película delgada. En [44] se expone la implementación de un algoritmo de detección y seguimiento de objetos mediante un 
294
escáner láser, su sistema funciona a partir de la segmentación de los datos del sensor que permite determinar el número de objetos 
295
presentes en el entorno y determinar sus movimientos para poder llevar a cabo una navegación de forma segura. Otros autores como 
296
[45] describen la auto localización de un robot utilizando las mediciones de un sensor ultrasónico basado en el filtro de 
297
partículas, los autores introducen varios métodos de localización para eliminar el ruido del proceso y de la medición, muestran 
298
resultados comparativos entre el filtro EKF y FP para la localización del robot con ambos métodos.
299
300
En [46] proponen un método de localización de un objeto en movimiento a través de una secuencia de imágenes tomadas por una cámara, 
301
utiliza el filtro de partículas como algoritmo de seguimiento basado en la información de múltiples sensores, integran un sistema 
302
de visión junto con un sistema de control para seguir de forma continua el objeto. Al igual que autores como [47] que proponen un 
303
método de seguimiento objetos basado en el control de movimiento de una cámara utilizan el filtro de partículas para predecir la 
304
posición del objeto en movimiento correspondiente a la información obtenida de una imagen. Autores como [48] analizan el problema 
305
entre la detección de un objeto y la estimación de la profundidad y realizan un seguimiento del objeto usando filtro de partículas, 
306
donde la posición de este objeto es modelado para la estimación de la profundidad. En [49] los autores presentan el seguimiento de 
307
un objeto en una secuencia de video, en sustitución de un modelo dinámico del objeto utilizan el método de substracción de fondo 
308
para predecir las ubicaciones del objeto y la aplicación del filtro de partículas para el seguimiento del objeto. En este trabajo 
309
presentamos el desarrollo de algoritmos para dar una solución al problema de la estimación de la posición, para mejorar el 
310
dimensionamiento 2D del interior del objeto a escanear.
311
312
==3. Metodología==
313
314
En esta sección se presenta un sistema capaz de escanear el interior de objetos en dos etapas. La primer etapa realiza el 
315
dimensionamiento 2D de una sección transversal usando visión activa. La segunda etapa localiza el sistema de visión activa dentro 
316
del interior del objeto para asignarle al dimensionamiento 2D el valor de profundidad que corresponde a la posición de la luz 
317
activa.
318
319
El sistema cuenta con una cámara CCD monocromática (C1) con una resolución de 2448<math>\times></math>2046 pixeles y un sensor de 1/1.45" que se 
320
conecta al ocular del fibroscopio utilizando un video acoplador óptico (VA) ver Figura 2. Un fibroscopio de 7 mm de diámetro (FIBRO) 
321
con una longitud efectiva de 1320 mm, dispone de una distancia mínima de trabajo de 30.48 mm, y un campo de visión de 
322
aproximadamente 50 grados alrededor del eje vertical y 40 grados alrededor del eje horizontal. La configuración del sistema del 
323
sistema de medición propuesto se muestra en la Figura 3.
324
325
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto%;max-width: 80%;"
326
|-
327
| style="padding:10px;" | [[File:Draft_Gonzalez-Barbosa_236306777_2176_esquema.jpg|550px]]
328
|- style="text-align: center; font-size: 75%;"
329
| colspan="1" style="padding-bottom:10px;" | '''Figura 3'''. Esquema del sistema de medición propuesto. C1 corresponde a la cámara que junto al fibroscopio (FIBRO) y el LED de potencia (LP) dimensionan en 2D el interior del objeto. La profundidad del dimensionamiento 2D se realiza con: una ME que corresponde a la escala magnética que es leída por el módulo Bluetooth, BT; una micro cámara mC2 que usa un patrón de círculos colocado en una de las placas del LP; y un odómetro (ODO) es leído a través de la tarjeta STM. La computadora PC, recibe los puntos 2D de la cámara C1 y la profundidad reportada por los 3 sensores (mC2, ME y ODO) para completar el escaneo 3D
330
|}
331
332
333
La Figura 4 muestra la cámara endoscópica (mC2), que utiliza tecnología  optoelectrónica para inspeccionar áreas de difícil acceso. 
334
La cámara endoscópica (mC2) tiene un diámetro de 7 mm, las dimensiones son de 510.54 mm <math>\times</math> 7.62 mm <math>\times</math> 7.62 mm, la resolución es de 
335
640x480 pixeles (JPEG), adquiere a 30 cuadros por segundo (FPS) y usa una luz LED ajustable en la punta de la cámara para iluminar 
336
la zona de inspección. En la punta del fibroscopio se adjuntó un dispositivo de iluminación, omitiendo el sistema de iluminación 
337
proporcionado por el fibroscopio. Este dispositivo está formado por un LED de potencia de color rojo de 1 watt (LP) y dos placas 
338
rectangulares opacas unidas a la circunferencia del LED. Las placas rectangulares se colocan de tal manera que el componente emisor 
339
de luz del diodo está entre las placas (véase región del LP ampliada que muestra el LED entre placas sujetas al fibroscopio). De 
340
esta manera, la luz sólo puede salir a través de la ranura formada por las placas, formando un plano de iluminación que toma la 
341
forma de la sección transversal del interior donde se proyecte. Las placas tienen un patrón de círculos impresos, que junto con la 
342
cámara 2 (mC2) localizan el plano de luz al interior del objeto.
343
344
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto%;max-width: auto;"
345
|-
346
| style="padding:10px;" | [[File:Draft_Gonzalez-Barbosa_236306777_5472_endoscope.jpg|600px]]
347
|- style="text-align: center; font-size: 75%;"
348
| colspan="1" style="padding-bottom:10px;" | '''Figura 4'''. Cámara Endoscopica USB Super Eyes N005
349
|}
350
351
352
Otro sistema de posicionamiento usado es un sistema llamado magneto-pot o escala magnética (ME), que es un potenciómetro con una 
353
resistencia variable, su operación se fundamenta en la variación de la resistencia en función de la posición. La ME puede adherirse 
354
a la pieza bajo medición. La lectura de posición de la ME y el control de intensidad del LP se realizan mediante un módulo Bluetooth 
355
(BT). Una interfaz gráfica de usuario (PC) es utilizada para controlar y leer todos los dispositivos del sistema y procesar la 
356
información necesaria para realizar el escaneo 3D. Un tercer método para calcular el posicionamiento de las secciones transversales 
357
es utilizando un odómetro (ODO), el cual calcula el desplazamiento del LP uniendo la cuerda del odómetro a una de las placas del LP.
358
359
===3.1 Visión Activa===
360
361
El diagrama de flujo de la Figura 5 muestra la metodología para realizar el dimensionamiento o escaneo 2D. En él se muestran tres 
362
grandes bloques de operaciones delimitados con línea punteada. Procedimiento de calibración, trazabilidad, posición y orientación 
363
(POSE).
364
365
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto%;max-width: auto;"
366
|-
367
| style="padding:10px;" | [[File:Draft_Gonzalez-Barbosa_236306777_5893_diagrama.jpg|600px]]
368
|- style="text-align: center; font-size: 75%;"
369
| colspan="1" style="padding-bottom:10px;" | '''Figura 5'''. Diagrama de  flujo para el escaneo 2D del interior de piezas huecas
370
|}
371
372
373
El procedimiento de calibración que se muestra en el bloque superior calcula los parámetros intrínsecos de la cámara conectada al 
374
fibroscopio y los coeficientes de distorsión de la lente acoplada a la cámara. Los parámetros y los coeficientes son evaluados con 
375
el toolbox de Bouguet et al. [50] modificado para detectar círculos. El bloque de trazabilidad permite encontrar la POSE del plano 
376
de luz generado por el LED de potencia encerrado entre placas y la POSE de los anillos patrón, ambas POSEs respecto al sistema de 
377
coordenadas de referencia ubicado en la cámara. Los anillos proporcionan la trazabilidad  y corrección de la POSE del plano de luz. 
378
El último bloque del diagrama describe como el contorno de las secciones transversales 2D definidas en el plano imagen, se 
379
transforma en una nube de puntos (coordenadas 2D en el mundo) utilizando los parámetros intrínsecos de la cámara y la POSE del plano 
380
de luz. Cada uno de los bloques mostrados en la Figura 5 se encuentra descritos en [3].
381
382
===3.2 Determinación de la profundidad===
383
384
Para calcular la profundidad se usó un sistema de visión, un odómetro y un sensor magnético. Primeramente determinamos el modelo del 
385
sensor, después hicimos una corrección, la caracterización del sensor (Figura 6) y finalmente la fusión de los datos obtenidos 
386
por los sensores.
387
388
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto%;max-width: auto;"
389
|-
390
| style="padding:10px;" | [[File:Draft_Gonzalez-Barbosa_236306777_3485_caracyterizacion.jpg|600px]]
391
|- style="text-align: center; font-size: 75%;"
392
| colspan="1" style="padding-bottom:10px;" | '''Figura 6'''. Modelado, corrección y caracterización de los sensores para el cálculo de profundidad
393
|}
394
395
396
El sistema de visión utilizado consta de una cámara y un patrón de referencia pegado en una de las placas del LED de potencia. El 
397
modelo de la cámara usado es el pinhole. Para calcular los parámetros de la cámara usamos un patrón de calibración con círculos 
398
impresos. En la caracterización, el patrón se mueve respecto a la cámara en intervalos de 10 mm usando un sistema de  
399
posicionamiento calibrado, por ejemplo una Máquina de Medición por Coordenadas (CMM), el sistema es capaz de medir hasta una 
400
distancia de 150 mm. Se toman tres secuencias de medición para caracterizar el sistema de visión. 
401
402
Con el propósito de dar trazabilidad a los parámetros del modelo, se utiliza un patrón de calibración compuesto por una matriz de 8 
403
x 8 círculos. La posición de cada centro del círculo es calculado por una Máquina de Medición de Coordenadas Ópticas (OCMM). Con 
404
este procedimiento extra, eliminamos los errores que puede introducir la impresora que imprime el patrón de círculos. Se modificó el 
405
toolbox de Bouguet [51] para utilizar los círculos en el cálculo de los parámetros intrínsecos.
406
407
El odómetro es un sistema que está compuesto por un conjunto de tarjetas electrónicas STM 32F4 discovery que se encargan de adquirir 
408
y procesar la señal de los pulsos generados (Figura 7). Entre las partes que componen  el sistema se encuentra un módulo de 
409
medición lineal. El módulo lineal usa un encoder opto-electrónico con un carrete acoplado al mismo, se jala un cable por un sistema 
410
dentado con una cadena en la que cada vuelta el encoder hace un conteo de los pulsos generados. El conteo de los pulsos generados 
411
por el encoder relaciona las vueltas y el desplazamiento lineal de la cuerda que está sujeta al generador de luz estructurada. El 
412
modelo utilizado para el odómetro es un polinomio. Para calcular la corrección del polinomio usamos una Máquina de Medición de 
413
Coordenadas (CMM) y la metodología presentada en [52] para una sola dimensión. La caracterización del sensor se hizo de forma 
414
estadística aproximando la medición de los sensores a una distribución paramétrica normal.
415
416
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
417
|-
418
|  style="text-align: center;padding:10px;"| [[File:Draft_Gonzalez-Barbosa_236306777_2606_odo1.jpg|600px]]
419
|-
420
|  style="text-align: center;font-size: 75%;"|(a) Odómetro completo
421
|-
422
|  style="text-align: center;padding:10px;"| [[File:Draft_Gonzalez-Barbosa_236306777_1036_odo2.jpg|600px]]
423
|-
424
|  style="text-align: center;font-size: 75%;"|(b) Tarjeta STM 32F4 discovery que permite la lectura del odómetro y la interfaz de los datos
425
|- style="text-align: center; font-size: 75%;"
426
| colspan="2" style="padding:10px;"| '''Figura 7'''. Sensor odométrico
427
|}
428
429
430
El sensor magnético (ver Figura 8) está formado por un imán de posición sobre un eje de movimiento del dispositivo. El sistema de 
431
medición propone el uso de una escala magnética que funciona como un potenciómetro con una resistencia de 10K cuyo desplazamiento 
432
depende de las posiciones del imán, para calcular el desplazamiento lineal al hacer presión sobre la capa superior del sensor, un 
433
segundo imán se coloca sobre las placas del generador de luz (LP), lo que permite conocer el desplazamiento del sistema de luz 
434
activa. El modelo utilizado para el sensor magnético es un polinomio. Para la corrección del polinomio usamos una Máquina de 
435
Medición de Coordenadas (CMM) como en [52]. La caracterización del sensor de desplazamiento magnético se hizo de forma estadística 
436
considerando una distribución normal.
437
438
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto%;max-width: auto;"
439
|-
440
| style="padding:10px;" | [[File:Draft_Gonzalez-Barbosa_236306777_8202_blue_tht.jpg|600px]]
441
|- style="text-align: center; font-size: 75%;"
442
| colspan="1" style="padding-bottom:10px;" | '''Figura 8'''. Arriba: Módulo bluetooth. Abajo: Escala magnética
443
|}
444
445
446
===3.2.1 Modelo probabilístico del sistema ===
447
448
Sea <math>X</math> una variable que toma como posibles valores <math>x_1</math>, <math>x_2</math>, <math>x_n</math> que representan donde se encuentra posicionada la luz activa en un 
449
instante de tiempo <math>t</math>, donde a cada valor de la variable se le asocia un valor de probabilidad, entonces para el conjunto de valores 
450
de <math>X</math> junto con sus probabilidades se define la distribución de probabilidad como:
451
452
{| class="formulaSCP" style="width: 100%; text-align: left;"
453
|-
454
|
455
{| style="text-align: left; margin:auto;width: 100%"
456
|-
457
| style="text-align: center;" | <math>{P(X)=P(X=x_{1}) +P(X=x_{2})+\ldots +P(X=x_{n})}</math>
458
|}
459
| style="width: 5px;text-align: right;white-space: nowrap;" | (1)
460
|}
461
462
Si <math>x</math> es la localización del sistema en el instante actual <math>x(t)</math>, dadas una secuencia de observaciones medidas por los tres sensores 
463
<math>z=(z_1, z_2, \cdots ,z_n)</math>, entonces para calcular la posición del sistema en el instante actual a partir de cierta medida <math>z</math> se define un 
464
valor de probabilidad condicionada a todos los datos de los sensores disponibles mediante <math>P(x|z)</math>:
465
466
{| class="formulaSCP" style="width: 100%; text-align: left;"
467
|-
468
|
469
{| style="text-align: left; margin:auto;width: 100%"
470
|-
471
| style="text-align: center;" | <math>{P(x|z)={\frac{P(z|x)*P(x)}{P(z)}}}</math>
472
|}
473
| style="width: 5px;text-align: right;white-space: nowrap;" | (2)
474
|}
475
476
El problema general es estimar la posición del generador de luz activa con el sistema propuesto. Las mediciones del sistema son 
477
datos con incertidumbres que se pueden modelar mediante distribuciones de probabilidad (PDF), en este caso como una distribución 
478
gaussiana. La ecuación (3) describe la probabilidad de que el generador de luz activa se encuentre en la posición medida por el  sensor [53]
479
480
{| class="formulaSCP" style="width: 100%; text-align: left;"
481
|-
482
|
483
{| style="text-align: left; margin:auto;width: 100%"
484
|-
485
| style="text-align: center;" | <math>PDF =\frac{1}{\sigma\sqrt(2\pi)}e^{\frac{(X-z)^2}{\sigma^2}}</math>
486
|}
487
| style="width: 5px;text-align: right;white-space: nowrap;" | (3)
488
|}
489
490
donde <math>X</math> es el dato medido por el sensor <math>X_n</math> (sistema de visión, odómetro y magneto), <math>z</math> es la media y  <math>\sigma</math> es la desviación estándar de 
491
la distribución para la medición del sensor. Las PDF's resultantes <math>Pn(x)</math> para cada <math>X(n)</math> se utilizan para representar cada una de las mediciones de los sensores con sus incertidumbres, cada medición produce una distribución gaussiana de la posición del generador de 
492
la luz activa. Para cada sensor la media y la desviación estándar han sido calculadas para posiciones discretas, el desplazamiento 
493
de referencia de la luz activa fue hecho con la Máquina de Medición de Coordenadas (CMM). Los datos son interpolados para posiciones donde no se conoce la media y desviación estándar de referencia. Existen diferentes métodos para la interpolación de los datos, en este trabajo utilizamos el algoritmo de maximización de la esperanza (expectation-maximization, EM). La interpolación lineal de los datos está definida por [54]:
494
495
{| class="formulaSCP" style="width: 100%; text-align: left;"
496
|-
497
|
498
{| style="text-align: left; margin:auto;width: 100%"
499
|-
500
| style="text-align: center;" | <math>\mu_{n}= \alpha \mu_{1} + (1-\alpha)\mu_{2}</math>
501
|}
502
| style="width: 5px;text-align: right;white-space: nowrap;" | (4)
503
|}
504
505
{| class="formulaSCP" style="width: 100%; text-align: left;"
506
|-
507
|
508
{| style="text-align: left; margin:auto;width: 100%"
509
|-
510
| style="text-align: center;" | <math>\sigma^{2}_{n}=\alpha^{2}\sigma_{1}^{2} + (1-\alpha)^{2}\sigma_{2}^{2} +2(1-\alpha) \alpha cov(x_{1},x_{2})</math>
511
|}
512
| style="width: 5px;text-align: right;white-space: nowrap;" | (5)
513
|}
514
515
donde <math>(\mu_{1}, \sigma_{1})</math>, <math>(\mu_{2}, \sigma_{2})</math> corresponde a la media y desviación estándar para las posiciones desplazadas por la Máquina de Medición de 
516
Coordenadas (CMM), y <math>(\mu_{n}, \sigma_{n})</math> los datos estadísticos interpolados, <math>\alpha</math> es el parámetro de interpolación, indica la diferencia entre 
517
dos valores observados, dadas dos muestras aleatorias <math>X_1,X_2</math>, la <math>cov(X_1,X_2)</math> es la varianza de <math>\mu</math>, variable aleatoria unidimensional
518
<math>var(X)=cov(X_1, X_2)</math>.
519
520
===3.2.2 Fusión de sensores ===
521
522
La alineación de los sensores es importante ya que la posición inicial del  sistema se estima con esta referencia. Los datos 
523
obtenidos de los sensores son fusionados para mejorar la estimación de la posición del generador de luz activa (Figura 9). El 
524
odómetro y magneto adquieren datos los cuales son corregidos usando una curva polinómica previamente calculada. Las imágenes de la 
525
cámara son corregidas en cuanto la distorsión radial usando los coeficientes de distorsión.
526
527
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto%;max-width: auto;"
528
|-
529
| style="padding:10px;" | [[File:Draft_Gonzalez-Barbosa_236306777_1415_profundidad.jpg|600px]]
530
|- style="text-align: center; font-size: 75%;"
531
| colspan="1" style="padding-bottom:10px;" | '''Figura 9'''. Metodología utilizada para el cálculo de la profundidad
532
|}
533
534
535
Usando la  CMM, el sistema de dimensionamiento activo se desplazó varias veces a diferentes posiciones y se caracterizaron los datos 
536
de los sensores a diferentes posiciones de la CMM. Estas posiciones de la CMM son discretas, cuando una posición del sensor no ha 
537
sido caracterizada se usa la interpolación descrita en la Sección 3.2.1.
538
539
El siguiente paso será el de fusionar todos los sensores. Cuando se tienen datos de diferentes sensores lo conveniente es realizar 
540
una fusión de datos con el fin de disminuir el error en la estimación de la posición, la idea de la fusión de dos o más datos es 
541
combinar las PDF's de estas mediciones para obtener un solo conjunto de datos. Las correspondientes distribuciones se fusionan 
542
mediante la multiplicación de las PDF's dada la ecuación 6, que representa la multiplicación de los datos y esta definida como la 
543
distribución de probabilidad conjunta
544
545
{| class="formulaSCP" style="width: 100%; text-align: left;"
546
|-
547
|
548
{| style="text-align: left; margin:auto;width: 100%"
549
|-
550
| style="text-align: center;" | <math>P(X_1, X_2,\cdots, X_{{n}})(x_1, x_2,\cdots, x_{{n}}) =\prod_{n=1}^{n}P X_{{n}}(x_{{n}})</math>
551
|}
552
| style="width: 5px;text-align: right;white-space: nowrap;" | (6)
553
|}
554
555
De la resultante <math>P(X_1,X_2, \cdots ,X_n)</math> de la combinación de las PDF de cada sensor, extraemos los datos del valor esperado o media, 
556
<math>X_n=E[X_n]</math>, que representa la mejor estimación de la posición y la desviación estándar que es la  incertidumbre asociada al valor 
557
esperado de la posición <math>sigma= \surd(Var(n))</math> [55]. Entonces, la posición estimada de la luz activa es corregida mediante la fusión de 
558
estas distribuciones de probabilidad.
559
560
===3.3 Estimadores de posición ===
561
562
Los filtros de Kalman y Partículas son algoritmos que actualizan recursivamente una estimación del estado del sistema de visión 
563
activa dada una secuencia de observaciones. Utilizamos la aplicación de ambos filtros como estimadores del posicionamiento del 
564
sistema de dimensionamiento basado en luz activa para tener un mayor control de la medición de la posición. Ambos filtros comienzan 
565
con una representación del modelo dinámico del sistema, el filtro de Kalman estima la posición en base a retroalimentación del 
566
modelo lineal del sistema, mientras que el filtro de partículas lo hace en términos de la predicción de muestras aleatorias, la idea 
567
principal es representar la distribución de la posición del sistema. El modelo dinámico del sistema que describe el comportamiento 
568
del sistema es presentado por:
569
570
{| class="formulaSCP" style="width: 100%; text-align: left;"
571
|-
572
|
573
{| style="text-align: left; margin:auto;width: 100%"
574
|-
575
| style="text-align: center;" | <math>X_{n}=AX_{n-1} + w_{n}</math>
576
|}
577
| style="width: 5px;text-align: right;white-space: nowrap;" | (7)
578
|}
579
con una medida:
580
{| class="formulaSCP" style="width: 100%; text-align: left;"
581
|-
582
|
583
{| style="text-align: left; margin:auto;width: 100%"
584
|-
585
| style="text-align: center;" | <math>z_{n}=HX_{n}  +v_{n}</math>
586
|}
587
| style="width: 5px;text-align: right;white-space: nowrap;" | (8)
588
|}
589
590
donde <math>X_n</math> es el vector de estado que describe la posición del sistema, <math>w_n</math> representa el error de la estimación del estado, <math>v_n</math> es el 
591
error aleatorio asociado a las mediciones de los sensores y <math>z_n</math> es la medición conocida dada por el sistema en la posición actual. <math>A</math> 
592
y <math>H</math> son constantes iguales a 1 debido a que nuestro sistema de posicionamiento se mueve sobre un solo eje. El objetivo es dar una 
593
solución al problema de la estimación de la posición de la luz activa aplicando los algoritmos propuestos el FK y FP para estimar el 
594
vector de estado dado un conjunto de mediciones provenientes del sistema de medición, así, los filtros procesan las mediciones <math>z_n</math> 
595
sobre un conjunto de muestras, dando finalmente como resultado el valor estimado <math>X_n</math>.
596
597
===3.3.1 Filtro de Kalman ===
598
El Filtro de Kalman(FK) se utiliza para modelar sistemas lineales en el que las mediciones del sistema se ven afectadas por ruido 
599
aleatorio provenientes del comportamiento del sistema. Para hacer una estimación de los valores de la posición, el filtro requiere 
600
de los valores estadísticos del ruido del proceso y de las mediciones, las cuales son utilizados para la estimación de la posición 
601
de la luz activa para producir estimaciones que están mas cerca del valor real, a partir de las mediciones obtenidas de la mezcla de 
602
gaussianas se obtiene un vector de medición <math>z_n</math>, estas mediciones son utilizadas para inicializar el filtro.
603
604
Las ecuaciones definidas en la sección 3.3 representan a <math>X_n</math> como la ecuación del estado del sistema, <math>z_n</math> como la ecuación de las mediciones, a <math>v_n</math> como el error asociado a la medida y wn como el error asociado al sistema. <math>Q</math> es la covarianza del sistema relacionada con la diferencia entre el valor real del estado y la estimación, <math>R</math> es la covarianza del error de medición que se estima a partir de la desviación estándar de la medida de los sensores. Experimentalmente el filtro toma en cuenta los siguientes parámetros: el estado inicial del sistema se definió como <math>x0(0)=0</math>, la covarianza del sistema <math>Q=0.176</math> y la covarianza del error asociado a la medición fue <math>R=0.1</math>. Posteriormente se actualizan la ecuación de observación usando los estados estimados y la covarianza mediante las ecuaciones:
605
606
{| class="formulaSCP" style="width: 100%; text-align: left;"
607
|-
608
|
609
{| style="text-align: left; margin:auto;width: 100%"
610
|-
611
| style="text-align: center;" | <math>\hat X_{n|n-1}=A \hat X_{n-1|n-1}</math>
612
|}
613
| style="width: 5px;text-align: right;white-space: nowrap;" | (9)
614
|}
615
616
{| class="formulaSCP" style="width: 100%; text-align: left;"
617
|-
618
|
619
{| style="text-align: left; margin:auto;width: 100%"
620
|-
621
| style="text-align: center;" | <math>P_{n|n-1}=AP_{n-1|n-1}A^T+Q</math>
622
|}
623
| style="width: 5px;text-align: right;white-space: nowrap;" | (10)
624
|}
625
626
El término <math>K_n</math> minimiza la covarianza del error denominado como Ganancia de Kalman:
627
628
{| class="formulaSCP" style="width: 100%; text-align: left;"
629
|-
630
|
631
{| style="text-align: left; margin:auto;width: 100%"
632
|-
633
| style="text-align: center;" | <math>K_{n}=P_{n|n-1}H^T(HP_{n|n-1}H^T+R)^{-1}</math>
634
|}
635
| style="width: 5px;text-align: right;white-space: nowrap;" | (11)
636
|}
637
638
La ecuación de actualización de las medidas por el filtro esta definida por:
639
640
{| class="formulaSCP" style="width: 100%; text-align: left;"
641
|-
642
|
643
{| style="text-align: left; margin:auto;width: 100%"
644
|-
645
| style="text-align: center;" | <math>\hat X_{n|n}=\hat X_{n|n-1}+ K_{n}(z_{n}-H \hat X_{n|n-1})</math>
646
|}
647
| style="width: 5px;text-align: right;white-space: nowrap;" | (12)
648
|}
649
650
{| class="formulaSCP" style="width: 100%; text-align: left;"
651
|-
652
|
653
{| style="text-align: left; margin:auto;width: 100%"
654
|-
655
| style="text-align: center;" | <math>P_{n|n}=(I-K_{n}H) P_{n|n-1}</math>
656
|}
657
| style="width: 5px;text-align: right;white-space: nowrap;" | (13)
658
|}
659
660
Una vez descritas las ecuaciones matemáticas del filtro, se procedió a realizar la simulación correspondiente de las estimaciones. 
661
Las gráficas en la sección de resultados ilustran el comportamiento típico del filtro de Kalman, el objetivo de utilizar el filtro 
662
de Kalman es mostrar la estimación de la posición de la luz activa.
663
664
===3.3.2  Filtro de Partículas ===
665
666
Presentamos la aplicación del filtro de partículas (FP) como un modelo de estimación similar al filtro de Kalman, en cada estimación 
667
usa como entrada el valor de posición en el estado anterior y la medición actual de los sensores. El algoritmo consiste en definir 
668
el posicionamiento de la luz activa a partir de una PDF inicial <math>P(x0)</math> con un número de (<math>N</math>) partículas <math>(x(0:t)= 1, \cdots, N) </math>
669
utilizando los datos provenientes de los sensores, hemos decidido inicializar el filtro como sigue <math>x0=0</math> y <math>P(x0)=0.176</math>; con un número 
670
total de 100 partículas, estas partículas representan muestras aleatorias de posibles valores cercanos a la posición del sistema, en 
671
un segundo instante de tiempo cuando el sistema se mueve a la siguiente posición las partículas se desplazan intentando predecir la 
672
posición del sistema en ese instante de tiempo, las partículas dispersadas alrededor de esa posición son evaluadas y se determina la 
673
probabilidad de cada partícula asociada a un peso <math>wt= 1, \cdots ,N</math>, remuestrea anulando aquellas partículas con poco valor de 
674
probabilidad, después de estos pasos las partículas distribuidas con mayor peso tendrán mayor probabilidad de obtener una PDF en 
675
torno a una única solución para la estimación del posicionamiento de la luz activa, estimamos recursivamente esta distribución en 
676
cada momento en que una medida es tomada.
677
678
==4. Resultados==
679
680
===4.1. Visión activa===
681
El sistema de visión activa propuesto es capaz de dimensionar el interior de objetos que van desde los 20 mm a 60 mm en dimensiones 
682
transversales. Cualquier perfil interior uniforme y no uniforme se puede escanear siempre y cuando la cámara conectada al 
683
fibroscopio tenga una visión clara de la línea de luz LED que alcanza las paredes. El cálculo de la profundidad del dimensionamiento 
684
produce una nube de puntos 3D de la pieza bajo medición.
685
686
El fibroscopio genera estructuras en forma de panal de abeja que se manifiestan en las imágenes capturadas. Estas estructuras deben 
687
ser filtradas de lo contrario el procedimiento de calibración no puede realizarse a menos que se desarrolle un extractor de 
688
características inmune a este tipo de ruido. La Figura 10 muestra la imagen de un patrón de calibración capturado a través del 
689
fibroscopio.  En este trabajo se utilizaron dos filtros, uno propuesto por [56] y el otro propuesto por [57]. Después de algunas 
690
pruebas, se estableció que la aplicación de ambos filtros en secuencia, primero Winter y luego Xu, da excelentes resultados. La 
691
secuencia opuesta no funciona pues los resultados son similares con solo aplicar el filtro de Winter, Figura 10 (b). La Figura 10 
692
muestra los resultados individuales de ambos filtros y los resultados cuando se aplican en secuencia.
693
694
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: 80%;"
695
|-
696
|style="padding:10px;"|  [[File:Draft_Gonzalez-Barbosa_236306777_2175_filtro.jpg|600px]] 
697
|- style="text-align: center; font-size: 75%;"
698
| colspan="1" style="padding-bottom:10px;"| '''Figura 10'''. (a) Imagen con estructura de panal presentes. (b) Región de la imagen ampliada filtrando con Winter et al. [56]. (c) Zona de la imagen ampliada filtrando de acuerdo a Xu et al. [57]. (d) Región de la imagen ampliada utilizando el filtro de Winter, seguido por el filtro de Xu
699
|}
700
701
702
Una comparación de las mediciones de una sección transversal del cilindro de frenado de autos se realizó entre los resultados del 
703
sistema propuesto y los obtenidos por medio de una CMM. La CMM es un equipo calibrado trazable a  patrones nacionales y se puede 
704
utilizar como patrón de referencia.
705
706
La Figura 11 representa un escaneo 3D de interior del cilindro de frenado de autos. La Figura 11 (a) muestra el escaneo de varias 
707
secciones transversales en el interior del cilindro maestro. La Figura 11 (b) muestra el error del diámetro al comparar el diámetro 
708
del cilindro ajustado con todas las secciones transversales medidas por el sistema propuesto y el diámetro medido por una CMM. El 
709
error es de 0.028 mm con una incertidumbre de 0.050 mm la cual cubre dicho error. En la Figura 11 (b) también se aprecia la 
710
cilindricidad de 0.186 mm. El error de diámetro es una prueba de la exactitud del sistema propuesto en el dimensionamiento 2D. Los 
711
resultados de la Figura 11 (b) se obtuvieron con el software de medición certificado GOM Inspect V8.
712
713
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
714
|-
715
|style="padding:10px;"|  [[File:Draft_Gonzalez-Barbosa_236306777_2789_cilindro1.jpg|600px]]
716
|-
717
|  style="text-align: center;font-size: 75%;"|(a) Escaneo 3D del interior de un cilindro de frenado de autos como el mostrado en la Figura 1b
718
|-
719
|style="padding:10px;"|  [[File:Draft_Gonzalez-Barbosa_236306777_9073_cilindro2.jpg|600px]]
720
|-
721
|  style="text-align: center;font-size: 75%;"|(b) Medición de las secciones transversales del cilindro
722
|- style="text-align: center; font-size: 75%;"
723
| colspan="1" style="padding-bottom:10px;"| '''Figura 11'''. Escanea 3D del Cilindro
724
|}
725
726
===4.2. Determinación de la Profundidad ===
727
728
El LED de potencia se mueve a lo largo de una trayectoria dentro del objeto a escanear y se quiere medir su posición. Los tres 
729
sensores se mueven junto con el LED y toman mediciones, estas se agrupan en un vector de posición <math>X(n) = 1, 2, \cdots ,N</math>, donde <math>n</math> 
730
representa el número de veces que son tomadas las mediciones, <math>N</math> es el número de mediciones para una posición específica. Los datos 
731
se adquieren por medio de mediciones repetidas, para este experimento medimos tres secuencias de datos diferentes para cada sensor, 
732
con la repetición de las medidas observamos que se producen resultados iguales o similares debido a que estas están sujetas a 
733
errores asociados al sistema, una mejor manera de estimar estas mediciones es calculando la media de los datos para tener una 
734
aproximación al valor medido.
735
736
Una vez realizado el escaneo, se debe determinar el modelo del sistema de acuerdo con las lecturas recogidas por los sensores. Para 
737
realizar una estimación correcta de todas las posiciones <math>X</math> con sus incertidumbres que ocurren durante la adquisición de datos, 
738
asumimos que nuestros datos representan un conjunto de variables aleatorias independientes, uniformemente distribuidas que siguen 
739
una distribución normal gaussiana de acuerdo a <math>N(\mu ,\sigma )</math> con una media centrada en el punto medio y una desviación estándar que modela 
740
la incertidumbre.
741
742
Por lo que debemos encontrar los valores de sus parámetros estadísticos de la media <math>\mu</math> y la desviación estándar <math>\sigma</math> y a partir de 
743
estos podemos realizar una caracterización del modelo que pueda adecuarse a las posiciones que están más cerca de las posiciones 
744
reales. En secciones posteriores definimos formalmente el modelo del sensor definiendo cada una de las distribuciones de 
745
probabilidad para las lecturas de los sensores.
746
747
La Figura 12 muestra los resultados de las posiciones de la luz activa provenientes de datos de diferentes sensores, 15 posiciones 
748
diferentes se miden. La descripción del modelo del sistema está relacionado con estas mediciones, con los resultados obtenidos se 
749
observa el comportamiento de un sistema dinámico lineal de tres variables independientes con la misma tendencia. A partir de conocer 
750
el comportamiento del sistema vemos que en la zona de 80 a 150 mm es donde una variabilidad de medida está presente en el sensor 
751
odométrico, se demuestra que a partir de este intervalo se tienen un valor de 0.1 mm de error acumulado con referencia al valor 
752
medido para cada posición.
753
754
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
755
|-
756
|style="padding:10px;"|  [[File:Draft_Gonzalez-Barbosa_236306777_2634_mediamm.jpg|600px]]
757
|- style="text-align: center; font-size: 75%;"
758
| colspan="1" style="padding-bottom:10px;"| '''Figura 12'''. Gráfica de la posición del LED de potencia cada 10 mm, para cada sensor
759
|}
760
761
762
Cuando se hacen varias mediciones se puede obtener un valor estadístico del error, el error asociado a las mediciones de la posición 
763
se presenta en la Figura 13, con estos valores sabemos que la medición de la posición es proporcional a la desviación que presenta, 
764
y nos da la exactitud de éstas medidas, es decir, a mayor repetibilidad mayor exactitud. Al tomar en cuenta estas medidas nos dirá 
765
que tan preciso es el sensor con el que estamos midiendo. En la Figura 13 podemos apreciar que las incertidumbre en los datos 
766
presentados están contenidas en el rango de 0 hasta 3 mm . El intervalo en el que el sensor odométrico mostró un mayor error 
767
sistemático es de 50 mm a 100 mm que presenta incertidumbres cercanas a 3 mm, mientras que el sensor magnético en el intervalo de 20 
768
a 50 mm se aproxima a los 0.1 mm, a su vez el sensor óptico después de los 110 mm presenta variaciones de 0.1 mm debido a que en 
769
esas posiciones el campo visión de la cámara ya es limitado. Así pues podemos concluir que los sensores de menor error muestran 
770
mayor capacidad de adquirir los datos, esta información nos es útil analizarla ya que posteriormente al hacer la fusión de los datos 
771
esperamos que los sensores con menor variabilidad incluyan en la estimación final de la posición.
772
773
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
774
|-
775
|style="padding:10px;"| [[File:Draft_Gonzalez-Barbosa_236306777_1368_desviacionmm.jpg|600px]]
776
|- style="text-align: center; font-size: 75%;"
777
| colspan="1" style="padding-bottom:10px;"| '''Figura 13'''. Desviación estándar  σ de los sensores a diferentes posiciones
778
|}
779
780
781
===4.2.1 Modelado de sensores===
782
783
Al iniciar el análisis de una serie de datos un primer paso consiste en describir el comportamiento de estos. En nuestro caso 
784
estamos interesados en conocer un valor de posición después de la realización de una medición y la determinación de la distribución 
785
a la cual se refiere ese valor. Ya que nuestros resultados de medición son datos que miden una misma variable de manera repetida en 
786
intervalos de tiempo de 500 ms y que presentan cierta variación con respecto a la cantidad real de posición se asume que esta 
787
variación se ajusta a una distribución normal que representamos con PDF's centrado en la media que es el mejor valor de la posición 
788
medido en un intervalo de medición de 10 mm y con una dispersión en proporción del error de esta medición, conocer la distribución 
789
del conjunto de datos para cada sensor nos proporciona información de la posición. En la Figura 14 se muestran tres PDF's, la 
790
PDF1(x) representa al sensor óptico en rojo, en verde la PDF2(x) corresponde al sensor odométrico y en azul PDF3(x) al sensor magnético. Nuestro trabajo está enfocado en fusionar los resultados de estas distribuciones para dar una mejor estimación de la posición.
791
792
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
793
|-
794
|style="padding:10px;"| [[File:Draft_Gonzalez-Barbosa_236306777_7646_distribucionesmm.jpg|600px]]
795
|- style="text-align: center; font-size: 75%;"
796
| colspan="1" style="padding-bottom:10px;"| '''Figura 14'''. La estimación de la posición se representa como una distribución de probabilidad
797
|}
798
799
===4.3 Interpolación de PDF's===
800
801
En la Figura 14 se muestra el conjunto de datos medidos en posiciones discretas definidas con distribuciones de probabilidad (PDF's), sin embargo, en la práctica cuando se realizan las mediciones hay datos en los que el sistema se encuentra en alguna posición en la que no se guarda ese valor de medición, ya que la presencia de información faltante lleva consigo perdida de precisión en las estimaciones se debe tomar en cuenta alguna metodología para estimar estos datos faltantes. Para encontrar una solución a esto, proponemos el uso del método de la interpolación lineal con ella llegamos a la obtención del modelado de la distribución de la posición cuando toma un valor fuera de un intervalo discreto donde no hay mediciones disponibles.
802
803
La interpolación consiste en hallar un dato dentro de un intervalo en el que conocemos los valores extremos. Los puntos <math>X_1(N,\mu ,\sigma )</math> y 
804
<math>X_2(N,\mu ,\sigma)</math>, sean dos variables independientes asociadas a una distribución normal, entonces estimamos un valor de <math>X(N,\mu ,\sigma )</math> ubicado 
805
dentro del intervalo <math>X_1 < X < X_2</math> con sus estadísticos   <math>\mu</math> y  <math>\sigma</math> (Sección 3.2.1) asociados a una distribución <math>F(x)</math> interpolada.
806
807
===4.3.1  Fusión de datos===
808
809
La combinación de las distribuciones de los sensores depende de la asociación de las incertidumbres de estos y del impacto que den 
810
sobre el resultado de la medición cada distribución aporta información complementaria que puede incrementar la exactitud de la 
811
estimación de la posición del LED. Los resultados de las distribuciones que se fusionan mediante el producto de las PDF individuales 
812
de cada uno de los valores proporcionados por los diferentes sensores se muestran en la Figura 15. El producto final muestra una 
813
incertidumbre menor que cuando el error es proveniente de cada uno de los sensores de manera individual, ya que es posible que el 
814
sensor que presente una menor incertidumbre tendrá mayor impacto sobre el resultado de la medición, esta distribución total está 
815
asociada a un nuevo valor de posición.
816
817
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
818
|-
819
|style="padding:10px;"| [[File:Draft_Gonzalez-Barbosa_236306777_6365_fusedmm.jpg|600px]] 
820
|- style="text-align: center; font-size: 75%;"
821
| colspan="1" style="padding-bottom:10px;"| '''Figura 15'''. Fusión de los sensores a diferentes posiciones
822
|}
823
824
825
826
Una vez obtenida la distribución total se calcula la media y la desviación estándar estimados asociados a esta distribución, el 
827
estrechamiento de la distribución indica que la incertidumbre implícita se reduce, y la media se centra con mayor precisión con 
828
respecto a la posición objetivo real. En la Tabla 2 se recopilan los resultados. Con este método modelamos el error de la posición 
829
para la localización del LED de potencia, hemos demostrado que este método es capaz de encontrar una estimación de la posición del 
830
LED y podemos concluir que este método es capaz de realizar una estimación de la posición aun cuando los valores de los sensores 
831
sean muy ruidosos y aun cuando las contribuciones individuales de los sensores no sean buenas.
832
833
===4.3.2  Estimadores de posición===
834
835
Nuestro objetivo con la implementación de los filtros como estimadores de la posición es el de calcular de forma más precisa la 
836
posición del sistema. Primero fusionamos directamente las mediciones de los sensores en un solo vector de mediciones y después estos 
837
valores son utilizados por ambos filtros.
838
En el caso del FK resuelve el problema de la estimación de la posición, tomando el vector de mediciones para retroalimentar con 
839
estos valores a las ecuaciones que definen el comportamiento del sistema descritas en la sección 3.3. La principal ventaja de los 
840
filtros de Kalman es su eficiencia computacional en la realización de las operaciones al utilizar datos con distribuciones 
841
unidimensionales. Aunque a diferencia de otros filtros, el filtro de Kalman no permite la posibilidad de añadir o quitar sensores ya 
842
que se basa en un modelo específico del comportamiento del sistema. La fiabilidad y respuesta del filtro está ligado a la 
843
formulación del modelo y una vez definido el sistema con las variables que retroalimentan al filtro ningún otro valor puede ser 
844
quitado o añadido debido a que a partir de estos valores se retroalimenta el filtro. En cambio, el filtro de partículas realiza una 
845
estimación de la posición en base al muestreo aleatorio de partículas, considerando una distribución inicial propuesta que se 
846
utiliza para realizar una estimación de las distribuciones combinando las observaciones obtenidas con el sistema a lo largo del 
847
tiempo.
848
849
La Figura 16 representa los valores de medición de los datos iniciales que son procesados por ambos filtros. Los filtros procesan la 
850
medición de 15 muestras dando como resultado la señal estimada X. 
851
La Figura 17 muestra la estimación de las posiciones después de que los datos son procesados por los filtros, junto con los valores 
852
del movimiento real del objeto (rojo) con sus respectivos valores de posición estimados con ambos filtros, el filtro de kalman 
853
(azul) y el filtro de partículas(negro). Los resultados muestran la estimación de la posición en cada punto de medición, se observa 
854
que los valores de posición son estimados son muy similares a la real.
855
856
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
857
|-
858
|style="padding:10px;"| [[File:Draft_Gonzalez-Barbosa_236306777_3992_kalman_uno.jpg|600px]]
859
|- style="text-align: center; font-size: 75%;"
860
| colspan="1" style="padding-bottom:10px;"| '''Figura 16'''. Datos iniciales 
861
|}
862
863
864
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
865
|-
866
|style="padding:10px;"| [[File:Draft_Gonzalez-Barbosa_236306777_1452_med_filtros.jpg|600px]] 
867
|- style="text-align: center; font-size: 75%;"
868
| colspan="1" style="padding-bottom:10px;"| '''Figura 17'''. Estimación de las posiciones con FK y FP
869
|}
870
871
872
En la Figura 18, se muestra la incertidumbre de la posición con los métodos implementados, la línea roja representa la incertidumbre 
873
generada al fusionar las incertidumbres procedentes de los sensores utilizados observamos que existe una diferencia considerable con 
874
respecto a la incertidumbre obtenida de manera individual de cada sensor, los resultados con este método oscilan entre 1 mm a 3 mm, 
875
adicionalmente, implementamos los algoritmos FK (azul) y FP (negra) con el propósito de disminuir la incertidumbre de la estimación 
876
de la posición, observamos que con ambas implementaciones se produce una reducción de la incertidumbre de 1.64 mm y 0.73 mm 
877
respectivamente, los valores obtenidos  nos indican qué tan fiable es la medición que estamos obteniendo con nuestro sistema de 
878
posicionamiento, al tomar una decisión del método a utilizar para mejorar la posición del sistema.
879
880
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
881
|-
882
|style="padding:10px;"| [[File:Draft_Gonzalez-Barbosa_236306777_3029_pf_2.jpg|600px]]
883
|- style="text-align: center; font-size: 75%;"
884
| colspan="1" style="padding-bottom:10px;"| '''Figura 18''': Desviaciones de los filtros
885
|}
886
887
888
Los resultados de los algoritmos propuestos se muestran en la Tabla 2, donde se observan las posiciones y el error de medición, 
889
tanto para el algoritmo de mezcla de gaussianas con EM, FK y FP, los resultados muestran que los métodos implementados tienden a 
890
aproximarse a la posición real del sistema y ambos filtros pueden ser utilizados para la estimación de la posición, sin embargo, el 
891
filtro de partículas es el algoritmo que realiza una mejor estimación de la posición en comparación con los otros métodos, además, 
892
también se puede ver en los resultados de la Tabla 2 como la desviación estándar es menor en el algoritmo filtro de partículas lo 
893
que indica que los resultados son más estables manteniéndose el LED localizado a lo largo de todo el recorrido del escaneo. Se puede 
894
observar como todos los valores de posiciones y el error comprendido entre los valores obtenidos se reducen drásticamente con la 
895
implementación del  algoritmo FP, ya que el estimado que se obtiene sobre el error de su posición se mejora en comparación con los 
896
otros métodos.
897
898
Para llevar a cabo la evaluación del proceso de medición de nuestro sensor, se calcularon los valores de incertidumbre de la posición en cada punto de medición, siguiendo los cálculos establecidos en [58], mostrados en la Tabla 2 y en la Figura 19. Finalmente, la tabla 3 muestra el error promedio de los valores de incertidumbre de las mediciones obtenidas en la Tabla 2,  analizando los resultados obtenidos se puede ver que estos valores representan el 1% del error en la  medición calculado a partir de la dispersión de los datos con respecto al valor promedio de las medidas obtenidas por el sensor. 
899
900
<div class="center" style="width: auto; margin-left: auto; margin-right: auto;font-size: 75%;">
901
'''Tabla 2'''. Datos obtenidos de todas las estimaciones (mm)</div><br />
902
<center>
903
{| class="wikitable" align="center" style="margin:0;text-align: center;font-size:85%;" 
904
|-style="border-top:2px solid; border-bottom:2px solid;"
905
| '''Distancia de referencia''' || '''Mezcla de gaussianas''' || '''Incertidumbre'''|| '''FK''' || '''Incertidumbre''' || '''FP''' || '''Incertidumbre'''
906
|-
907
|0 || 0 || 0 || 0 || 0 || 0 || 0
908
|-
909
|10 || 11.072 || 0.8 || 10.881 || 0.7 || 10.481 || 0.3
910
|-
911
|20 || 20.87 || 0.7 || 17.521 || 2.0 || 21.131 || 0.9
912
|-
913
|30 || 31.215 || 0.9 || 28.324 || 1.3 || 30.796 || 0.6
914
|-
915
|40 || 41.565 || 1.2 || 41.119 || 0.9 || 40.41 || 0.3
916
|-
917
|50 || 52.148 || 1.7 || 51.555 || 1.2 || 50.903 || 0.7
918
|-
919
|60 || 62.774 || 2.2 || 62.508 || 2.0 || 61.989 || 1.6
920
|-
921
|70 || 72.5820 || 2.1 || 72.363 || 1.9 || 69.76 || 0.1
922
|-
923
|80 || 83.915 || 3.1 || 83.677 || 3.0 || 80.884 || 0.7
924
|-
925
|90 || 93.688 || 3.0 || 93.401 || 2.7 || 92.349 || 1.9
926
|-
927
|100 || 103.133 || 2.5 || 102.634 || 2.1 || 99.963 || 0.3
928
|-
929
|110 || 112.371 || 1.9 || 112.03 || 1.6 || 111.415 || 1.1
930
|-
931
|120 || 122.1810 || 1.7 || 121.251 || 1.0 || 119.466 || 0.4
932
|-
933
|130 || 131.388 || 1.1 || 130.786 || 0.6 || 130.326 || 0.2
934
|-style="border-bottom:2px solid;"
935
|140 || 142.619 || 2.1 || 141.854 || 1.5 || 141.056 || 0.8
936
|}
937
</center>
938
939
940
<div class="center" style="width: auto; margin-left: auto; margin-right: auto;font-size: 75%;">
941
'''Tabla 3'''. Incertidumbres obtenidas de estimaciónes de posición discretas (mm)
942
</div>
943
944
<center>
945
{| class="wikitable" align="center" style="margin:0;text-align: center;font-size:85%;" 
946
|-style="border-top:2px solid; border-bottom:2px solid;"
947
! incertidumbre !! Mezcla de gausssianas !! FK !! FP
948
|-style="border-bottom:2px solid;"
949
|  || 1.8 || 1.64 || 0.73
950
|}
951
</center>
952
953
954
Los resultados experimentales muestran que el error de medición del sensor propuesto está dentro del 1%. Este resultado se compara a continuación con el obtenido en otros trabajos, en los que se presentan sistemas que proporcionan información útil para aplicaciones de navegación e inspección de tuberías y modelado 3D. Autores como [59] presentan un sistema de visión capaz de obtener información de la profundidad con un error de estimación menor al 2%. Un sistema de visión para el escaneo de tuberías 3D como el propuesto en [60], en el método de escaneo consiste en proyectar un haz de luz  circular sobre la  superficie del tubo, que permite calcular la posición de escaneo con  una resolución de menos del 1%.  En [61] demuestran  cómo se puede realizar la medición del perfil interno de piezas cilíndricas con una resolución del 2%. Mientras que en [62] proponen un sistema de medición para la reconstrucción 3D de tuberías,  el método consiste en estimar el movimiento de la cámara  con referencia las coordenadas 3D de la sección de luz, este sistema puede estimar el movimiento de la cámara  con un error del 3%. En  [63] proponen un método de localización simultánea para estimar con precisión la posición de un instrumento utilizado con aplicaciones quirúrgicas, con una precisión menor del  2%. En [64] proponen un sistema para la inspección de tuberías que consiste en un robot móvil que se desplaza en el interior del ducto, la posición del móvil es medida a través de un distanciómetro láser con una precisión del 3%.  En [65] presentan una técnica de estimación de la posición de la cámara dentro de la tubería con una precisión del 1%. De los resultados obtenidos con el sistema de medición propuesto en nuestro trabajo, se deduce que la precisión de nuestro sensor puede considerarse del mismo nivel que los trabajados mencionados, lo que demuestra que este sensor es adecuado para utilizarse en procesos donde es posible adaptar mediciones ópticas donde se espera que el sistema sea capaz de evaluar el perfil de la superficie interna de la pieza a medir.
955
956
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
957
|-
958
|style="padding:10px;"|  [[File:Cano-Rodriguez_et_al_2018a_1655_tuberia.jpg|600px]]
959
|- style="text-align: center; font-size: 75%;"
960
| colspan="1" style="padding-bottom:10px;"| '''Figura 19'''. Comparación con otras técnicas en términos de precisión
961
|}
962
963
==4. Conclusiones==
964
Se ha presentado un sistema para el escaneo de interiores en 3D, donde definimos un sistema para el dimensionamiento en 2D de las 
965
secciones transversales del interior de partes, nos enfocamos en realizar un sistema de medición para determinar de la posición del 
966
LED de potencia que fusiona sensores odométrico, magnético y óptico. Los resultados iniciales de las posiciones del LED llevaron a 
967
la observación de que es preciso que la referencia del sistema mantenga una posición de referencia fija, para que la asociación de 
968
datos no falle y las mediciones del sistema lleven una incorrecta estimación o error de la posición. En los resultados mostramos 
969
cómo las posiciones del LED pueden ser estimadas. El modelo lineal del sistema utilizado se basa en la asociación de datos, resuelto 
970
mediante mezcla de gaussianas con EM y después se desarrollaron y probaron los métodos de FK y FP con el propósito de estimar la 
971
posición del sistema de dimensionamiento, mostramos los resultados con la finalidad de destacar que ambos filtros tienen 
972
comportamientos similares, se encontró que existe un error sistemático de 1.64 mm y 0.73 mm respectivamente logrando de esta forma 
973
obtener resultados que permiten mejorar la medición de la posición del LED. Los resultados del posicionamiento obtenidos con el 
974
sistema de medición propuesto se comparan con los resultados de trabajos existentes y se presentan en la Figura 19, la solución que 
975
proporcionan estas técnicas son cercanos a los presentados por nuestro sistema, lo que indica que el sistema de escaneo se puede 
976
utilizar para diferentes aplicaciones
977
978
==Referencias==
979
<div class="auto" style="width: auto; margin-left: auto; margin-right: auto;font-size: 85%;">
980
981
<span id='_Ref449083719'></span>
982
<div id="1"></div>
983
[[#cite-1|[1]]]  Zhang Z. Flexible camera calibration by viewing a plane from unknown orientations.  Proceedings of the Seventh IEEE International Conference on Computer Vision, pp. 666-673, 1999.
984
985
<div id="2"></div>
986
[[#cite-2|[2]]]  Rupp S.,  Winter C.,  Wittenberg T. Camera calibration from fiberscopic views with accuracy evaluation. Bildverarbeitung für die Medizin,  pp. 424-428, 2006.  
987
988
<div id="3"></div>
989
[[#cite-3|[3]]]  Icasio-Hernández O.,  Gonzalez-Barbosa J.-J.,  Hurtado-Ramos J.,  Viliesid-Alonso M. 3d reconstruction of hollow parts analyzing images acquired by a fiberscope. Measurement Science and Technology 25 (7), 2014.
990
991
<div id="4"></div>
992
[[#cite-4|[4]]]  Chen L.,  Bavigadda V.,  Kofidis T.,  Howe R. Fiber optic projection-imaging system for shape measurement in confined space. The ScientificWorld Journal, 28:206569, 2014. 
993
994
<div id="5"></div>
995
[[#cite-5|[5]]]  Stehle T.,  Truhn D.,  Aach T.,  Trautwein C.,  Tischendorf J. Camera calibration for fish-eye lenses in endoscopy with an application to 3D reconstruction. In Proceedings IEEE International Symposium on Biomedical Imaging (ISBI), IEEE, Washington D.C., pp. 1176-1179, 2007.
996
997
<div id="6"></div>
998
[[#cite-6|[6]]]  Barreto J.,  Santos J. Ray-based calibration of rigid medical endoscopes.  The 8th Workshop Omnidirectional Vision Camera Networks and Non Classical Cameras (OMNIVIS), Marseille, France, 2008.
999
1000
<div id="7"></div>
1001
[[#cite-7|[7]]]  Barreto J.P.,  Roquette J.,  Sturm P.,  Fonseca F. Automatic camera calibration applied to medical endoscopy. Procedings of the British Machine Vision Conference, 52.1-52.10, 2009.
1002
1003
<div id="8"></div>
1004
[[#cite-8|[8]]]  Melo R., Barreto J.,  Falcão G. A new solution for camera calibration and real-time image distortion correction in medical endoscopy-initial technical  evaluation. IEEE Transactions on Bio-Medical Engineering, 59(3):634-44, 2012. 
1005
1006
<div id="9"></div>
1007
[[#cite-9|[9]]] Schmalz C., Forster F.,  Schick A.,  Angelopoulou E. An endoscopic 3d scanner based on structured light. Medical Image Analysis, 16(5):1063-1072, 2012.
1008
1009
<div id="10"></div>
1010
[[#cite-10|[10]]]  Hayashibe M.,  Suzuki N.,  Nakamura Y. Laser-scan endoscope system for intraoperative geometry acquisition and surgical robot safety management. Medical Image Analysis, 10(4):509-19, 2006. 
1011
1012
<div id="11"></div>
1013
[[#cite-11|[11]]]  Wu C.H.,  Sun Y.N.,  Chang C.C. Three-dimensional modeling from endoscopic video using geometric constraints via feature positioning. IEEE Transactions on Biomedical Engineering, 54(7):1199-1211,  2007.
1014
1015
<div id="12"></div>
1016
[[#cite-12|[12]]] ] C. Wu,  Narasimhan S.,  Jaramaz B. Shape-from-shading under near point lighting and partial views for orthopedic endoscopy. In Proceedings of the  First Int. Workshop on Photometric Analysis For Computer Vision - PACV 2007, 8 pp., Rio de Janeiro, Brazil,  2007.
1017
1018
<div id="13"></div>
1019
[[#cite-13|[13]]] Wang G.H.,  Han J.Q.,  Zhang X.M. Three-dimensional reconstruction of endoscope images by a fast shape from shading method. Measurement Science and Technology, 20 (12):125801, 2009. 
1020
1021
<div id="14"></div>
1022
[[#cite-14|[14]]] Criante L.,  Lucesoli A.,  Farabollini B.,  Bonifazi F.,  Rozzi T.,  Simoni F. Size measurement in endoscopic images by low coherence interferometry. Journal of Optics A: Pure and Applied Optics, 11(3):034007, 2009. 
1023
1024
<div id="15"></div>
1025
[[#cite-15|[15]]]  Penne J.,  Höller K.,  Stürmer M.,  Schrauder T.,  Schneider A.,  Engelbrecht R.,  Feussner H.,  Schmauss B.,  Hornegger J. Time-of-flight 3-D endoscopy. International Conference on Medical Image Computing and Computer-Assisted Intervention (MICCAI 2009), 12 (Pt 1), 467-474, 2009.
1026
1027
<div id="16"></div>
1028
[[#cite-16|[16]]]  Daul C.,  Blondel W. From 2D towards 3D cartography of hollow organs.  7th IEEE International Conference on ElectricalEngineering, Computing Science and Automatic Control, CCE 2010, CCE 201, pp. 285-293, Tuxtla Gutiérrez, Mexico, Sept. 2010.
1029
1030
<div id="17"></div>
1031
[[#cite-17|[17]]]  Seki T.,  Oka K.,  Naganawa A.,  Yamashita H.,  Kim K.,  ChibaT.T. Laser distance measurement using a newly developed composite-type optical fiberscope for fetoscopic laser surgery. Optics and Lasers in Engineering, 48(10):974-977, 2010. 
1032
1033
<div id="18"></div>
1034
[[#cite-18|[18]]] Arai K.  Method for 3D object reconstruction using several portions of 2D images from the diferent aspects acquired with image scopes included in the fiber retractor. International Journal of Advanced Research in Artificial Intelligence, 1(9):14-19, 2012.
1035
1036
<div id="19"></div>
1037
[[#cite-19|[19]]] Schmalz C.,  Forster F.,  Schick A.,  Angelopoulou E. An endoscopic 3d scanner based on structured light. Medical Image Analysis, 16(5):1063-1072, 2012.
1038
1039
<div id="20"></div>
1040
[[#cite-20|[20]]]  Hartrumpf M., Munser R.  Optical three-dimensional measurements by radially symmetric structured light projection. Applied Optics, 36(13):2923-2928, 1997.
1041
1042
<div id="21"></div>
1043
[[#cite-21|[21]]]  Schaack D. Making accurate, three-dimensional measurements through a standard borescope. Proc. SPIE 3397, Nondestructive Evaluation of Aging Aircraft, Airports, and Aerospace Hardware II,  3397:264-276, 1998.
1044
1045
<div id="22"></div>
1046
[[#cite-22|[22]]]  Hasegawa K., Noda K., Sato Y. Electronic endoscope system for shape  measurement. IEEE: Object Recognition Supported by User interaction for Service Robots, 1:792,795, Quebec, Canada, 2002.
1047
1048
<div id="23"></div>
1049
[[#cite-23|[23]]]  Winter C.,  Scholz I. Reconstruction of tubes from monocular fiberscopic images. Application and first results. In Vision, Modeling, and Visualization, pp. 57-64, 2005.
1050
1051
<div id="24"></div>
1052
[[#cite-24|[24]]]  Biegelbauer G.,  Vincze M. 3D vision-guided bore inspection system.  In Fourth IEEE International Conference on Computer Vision Systems (ICVS'06), pp. 22- 22, 2006. 
1053
1054
<div id="25"></div>
1055
[[#cite-25|[25]]]  Ford H.D.,  Tatam R.P. Passive OCT probe head for 3D duct inspection. Measurement Science and Technology, 24(9):094001, 2013. 
1056
1057
<div id="26"></div>
1058
[[#cite-26|[26]]]  Müller A.,  Schubert M.,  Beleites E. Noncontact three-dimensional laser measuring device for tracheoscopy. Annals of Otology, Rhinology and Laryngology, 111(9):821-827, 2002.
1059
1060
<div id="27"></div>
1061
[[#cite-27|[27]]]  Dörfiel W.,  Sugano Y.,  Stalling D.,  Coconu L.,  Hentschel D.,  Linÿ G.,  Witt C. Laser-based endoscopic measurement of airway dimensions. Pneumologie, 57(9):503-509, 2003. 
1062
1063
<div id="28"></div>
1064
[[#cite-28|[28]]]  Williamson J.,  James A.,  Phillips M.,  Sampson D.,  Hillman D.,  Eastwood P. Quantifying tracheobronchial tree dimensions: Methods, limitations and emerging techniques. European Respiratory Journal, 34(1):42-55, (2009). 
1065
1066
<div id="29"></div>
1067
[[#cite-29|[29]]]  Geng J.,  Xie J. Review of 3-d endoscopic surface imaging techniques. IEEE Sensors Journal, 14(4):945-960, 2014. 
1068
1069
<div id="30"></div>
1070
[[#cite-30|[30]]]  Yang D.,  Liu Z.,  Sun F.,  Zhang J.,  Liu H.,  Wang S. Recursive depth parametrization of monocular visual navigation: Observability analysis and performance evaluation. Information Sciences, 287:38-49, 2014. 
1071
1072
<div id="31"></div>
1073
[[#cite-31|[31]]]  Firouzi H., Najjaran H.  Real-time monocular vision-based object tracking with object distance and motion estimation. IEEE/ASME International Conference on Advanced Intelligent Mechatronics, (AIM 2010), pp. 987-992, 2010.
1074
1075
<div id="32"></div>
1076
[[#cite-32|[32]]]  Zhang Z.,  Han Y.,  Zhou Y.,  Dai M. A novel absolute localization estimation of a target with monocular vision. Optik, 124(12):1218-1223, 2013. 
1077
1078
<div id="33"></div>
1079
[[#cite-33|[33]]]  Assa A.,  Janabi-Sharifi F. Virtual visual servoing for multicamera pose estimation. IEEE/ASME Transactions on Mechatronics, 20(2):789-798, 2014. 
1080
1081
<div id="34"></div>
1082
[[#cite-34|[34]]]  Burschka D.,  Mair E. Direct pose estimation with a monocular camera. Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 4931 LNCS, pp. 440-453, 2008.
1083
1084
<div id="35"></div>
1085
[[#cite-35|[35]]]  Williams B.,  Klein G.,  Reid I. Real-time slam relocalisation. IEEE 11th International Conference on Computer Vision,  pp. 1-8, Rio de Janeiro, 2007.  
1086
1087
<div id="36"></div>
1088
[[#cite-36|[36]]]  Owczarek P.,  Goslinski J., Rybarczyk D.,  Kubacki A. Control of an electro-hydraulic manipulator by vision system using central point of a marker estimated via kalman filter. ICA 2016. Advances in Intelligent Systems and Computing, Springer International Publishing, pp. 587-596, 2016. 
1089
1090
<div id="37"></div>
1091
[[#cite-37|[37]]]  Stroupe A.W.,  Martin M.C.,  Balch T. Merging Gaussian distributions for object localization in multi-robot systems. In Experimental Robotics VII, Lecture Notes in Control and Information Sciences, Vol. 271, pp. 343-352, Springer, Berlin, Heidelberg, 2001. 
1092
1093
<div id="38"></div>
1094
[[#cite-38|[38]]]   Fox D.,  Burgard W.,  Thrun S. Markov localization for mobile robots in dynamic environments. Journal of Artificial Intelligence Research, 11:391-427, 1999.
1095
1096
<div id="39"></div>
1097
[[#cite-39|[39]]]  O'Kane J. Global localization using odometry. Proceedings 2006 IEEE International Conference on Robotics and Automation (ICRA 2006), pp. 37-42, 2006. 
1098
1099
<div id="40"></div>
1100
[[#cite-40|[40]]]  Delahoche L.,  Pégard C.,  Marhic B.  Vasseur P. Navigation system based on an omnidirectional vision sensor. In Proc. of the Int. Conf. on Intelligent Robotics and Systems 1997 (IROS’97), Vol. 2, pp. 718–724, Grenoble, France, 1997.
1101
1102
<div id="41"></div>
1103
[[#cite-41|[41]]]  Eberhard P., Tang Q. Sensor data fusion for the localization and position control of one kind of omnidirectional mobile robots.  Multibody System Dynamics, Robotics and Control, Springer, Chapter 4, pp. 45-73,  2013. 
1104
1105
<div id="6"></div>
1106
[[#cite-42|[42]]]  Caruso M.,  Bratland T.,  Smith C.,  Schneider R. Anisotropic magnetoresistive sensors: Theory and applications. Sensors (Peterborough, NH), 16(3):18-26, 1999.
1107
1108
<div id="43"></div>
1109
[[#cite-43|[43]]]  Schott C., Racz R.,  Betschart F.,  Popovic R. A new two-axis magnetic position sensor. SENSORS, 2002 IEEE, Vol. 2,  pp. 911-915, 2002.
1110
1111
<div id="44"></div>
1112
[[#cite-44|[44]]] Bosch-Jorge M.,  Soriano A.,  Valera A.,  Sánchez Salmerón A.J. Detección y seguimiento de objetos móviles utilizando un escáner láser mediante filtros de kalman. Comité Español de Automática (CEA-IFAC), Valencia (Spain), 2014.
1113
1114
<div id="45"></div>
1115
[[#cite-45|[45]]]  Woo J.,  Kim Y.,  Lee J.,  Lim M. Localization of mobile robot using  particle filter. In 2006 SICE-ICASE International Joint Conference, pp. 3031-3034, 2006.
1116
1117
<div id="46"></div>
1118
[[#cite-46|[46]]] Vadakkepat P.,  Jing L. Improved particle filter in sensor fusion for tracking randomly moving object. IEEE Transactions on Instrumentation and  Measurement, 55(5):1823-1832, 2006.
1119
1120
<div id="47"></div>
1121
[[#cite-47|[47]]]  Yuan C.,  Lianchuan M.,  Ma W. Mobile target tracking based on hybrid open-loop monocular vision motion control strategy. Discrete Dynamics in Nature and Society,  10 pp., 2015.
1122
1123
<div id="48"></div>
1124
[[#cite-48|[48]]]  Boukhers Z.,  Shirahama K.,  Li F.,  Grzegorzek M. Object detection and depth estimation for 3d trajectory extraction. In Proceedings of International Workshop on Content-Based Multimedia Indexing, Vol. 2015, July 2015.
1125
1126
<div id="49"></div>
1127
[[#cite-49|[49]]] Sakharkar S.S.,  Kamble S.D., Khobragade A.S. Object detection and tracking using particle filters. International Journal of Computer Trends and Technology(IJCTT),  Vol. 22(1), April 2015.
1128
1129
<div id="50"></div>
1130
[[#cite-50|[50]]]  Bouguet J.-Y. Camera calibration toolbox for Matlab, 2015.
1131
1132
<div id="51"></div>
1133
[[#cite-51|[51]]] Bouguet J.-Y. Camera calibration toolbox for Matlab, 2008.
1134
1135
<div id="52"></div>
1136
[[#cite-52|[52]]] Y.-I. Curiel-Razo, O. Icasio-Hernández, G. Sepúlveda-Cervantes, J.-B. Hurtado-Ramos, J.-J. González-Barbosa, Leap motion controller three dimensional verification and polynomial correction, Measurement 93 (2016) 258 - 264. doi:http://dx.doi.org/10.1016/j.measurement.2016.07. 017.
1137
1138
<div id="53"></div>
1139
[[#cite-53|[53]]] D. Elsaesser, Sensor data fusion using a probability density grid, FUSION 2007 - 2007 10th International Conference on Information Fusiondoi:10.1109/ICIF.2007.4408047.
1140
1141
<div id="54"></div>
1142
[[#cite-54|[54]]] S. Schlegel, N. Korn, G. Scheuermann, On the interpolation of data with normally distributed uncertainty for visualization, IEEE Transactions on Visualization and Computer Graphics 18 (12) (2012) 2305-2314. doi: 10.1109/TVCG.2012.249
1143
1144
<div id="55"></div>
1145
[[#cite-55|[55]]] S. Thrun, W. Burgard, D. Fox, Probabilistic robotics (intelligent robotics and autonomous agents). 
1146
1147
<div id="56"></div>
1148
[[#cite-56|[56]]] C. Winter, S. Rupp, M. Elter, C. Münzenmayer, H. Gerhäuser, T. Wit tenberg, Automatic adaptive enhancement for images obtained with fiberscopic endoscopes., IEEE transactions on bio-medical engineering 53 (10) (2006) 2035-46. doi:10.1109/TBME.2006.877110.
1149
1150
<div id="57"></div>
1151
[[#cite-57|[57]]] L. Xu, Q. Yan, Y. Xia, J. Jia, Structure extraction from texture via relative total variation, ACM Transactions on Graphics (TOG).
1152
1153
<div id="58"></div>
1154
[[#cite-58|[58]]]ISO, 1995. Guide to Expression of Uncertainty in Measurement, 1st ed. International Standard Organization.
1155
1156
<div id="59"></div>
1157
[[#cite-59|[59]]] Orghidan, R., Salvi, J., Mouaddib, E. M., 2005. Accuracy estimation of a new omnidirectional 3d vision sensor. En: Image Processing, 2005. ICIP 2005. IEEE International Conference on. Vol. 3. IEEE, pp. III–365.
1158
1159
<div id="60"></div>
1160
[[#cite-60|[60]]] Totani, H., Goto, H., Ikeda, M., Yada, T., 1995. Miniature 3D optical scanning sensor for pipe-inspection robot. En: Microrobotics and Micromechanical Systems. Vol. 2593. International Society for Optics and Photonics, pp. 21–30.
1161
1162
<div id="61"></div>
1163
[[#cite-61|[61]]] Wakayama, T., Yoshizawa, T., 2013. Uni-axial inner profile measurement. Dimensional Optical Metrology and Inspection for Practical Applications II. Vol. 8839. International Society for Optics and Photonics, p. 88390L.
1164
1165
<div id="62"></div>
1166
[[#cite-62|[62]]] Matsui, K., Yamashita, A., Kaneko, T., 2010. 3-d shape measurement of pipe by range finder constructed with omni-directional laser and omni-directional camera. Robotics and Automation (ICRA), 2010 IEEE International Conference on. IEEE, pp. 2537–2542.
1167
1168
<div id="63"></div>
1169
[[#cite-63|[63]]]Sadjadi, H., Hashtrudi-Zaad, K., Fichtinger, G., 2016. Simultaneous localization and calibration for electromagnetic tracking systems. The International Journal of Medical Robotics and Computer Assisted Surgery 12 (2), 189–198.
1170
1171
<div id="64"></div>
1172
[[#cite-64|[64]]]Liu, Z., Krys, D., 2012. The use of laser range finder on a robotic platform for pipe inspection. Mechanical systems and signal processing 31, 246–257.
1173
1174
<div id="65"></div>
1175
[[#cite-65|[65]]] Tezerjani, A. D., Mehrandezh, M., Paranjape, R., 2014. 4-dof pose estimation of a pipe crawling robot using a collimated laser, a conic mirror, and a fish-eye camera. En: Image Analysis and Interpretation (SSIAI), 2014 IEEE Southwest Symposium on. IEEE, pp. 45–48.
1176
</div>
1177

Return to Cano-Rodriguez et al 2018a.

Back to Top