You do not have permission to edit this page, for the following reason:

You are not allowed to execute the action you have requested.


You can view and copy the source of this page.

x
 
1
==Resumen==
2
3
En este trabajo presentamos un sistema de posicionamiento de visión activa para el escaneo 3D del interior de piezas. El diseño del 
4
sistema propuesto consta de dos módulos: un sistema de dimensionamiento 2D de visión activa, y un sistema que posiciona el módulo de 
5
visión activa. El sistema de posicionamiento es capaz de determinar la profundidad del sistema de dimensionamiento 2D de visión 
6
activa en el interior del objeto a escanear usando varios sensores. Las principales contribuciones de este trabajo son la 
7
caracterización del sistema de dimensionamiento 2D, y el desarrollo de algoritmos de posicionamiento de la luz activa con énfasis en 
8
el modelado y fusión de sensores. El sistema puede utilizarse como un sistema de dimensionamiento en aplicaciones industriales como 
9
la industria metal mecánica, la aeronáutica, la medicina, en el control de calidad y en áreas de visión por computadora.
10
11
'''Palabras clave''': Estimación de la posición, procesamiento de imágenes, fusión de datos, modelado sensorial
12
13
==Abstract==
14
15
In this work we present an active positioning system for 3D scan of interior parts. The design of the proposed system consists of two modules: an active 2D dimensional system and positional system based on active vision. The active 2D dimensional system is able to determine the depth of the 2D dimensional system inside the object to be scanned using several sensors.
16
The main contributions of this work are the characterization of the 2D dimensional system and the development of active light positioning algorithms with emphasis on the modeling and fusion of the sensors. The system can be used as a dimensional system in industrial applications such as the metal mechanical industry, aeronautics industry, medicine, quality control and computer vision.
17
18
'''Keywords''': Pose estimation, image processing, data fusion, sensor models
19
20
==1. Introducción==
21
22
En este trabajo presentamos una propuesta de un sistema de posicionamiento de luz activa para el escaneo 3D del interior de piezas 
23
industriales con gran utilidad en diferentes tipos de industria como la metal mecánica, la aeronáutica, la militar y la medicina que 
24
requieren constantemente la medición de dimensiones internas de la pieza bajo inspección. Como ejemplos de aplicación podemos 
25
mencionar la medición del interior del cilindro maestro que forma parte del sistema de frenado de los autos, el escaneo 3D del 
26
interior del cuerpo humano, la medición en el interior de tuberías, la medición del interior de botellas hechas de plástico, entre 
27
otros (Figura 1). El presente trabajo propone el uso de un sistema de medición capaz de obtener la posición de la luz activa 
28
para poder dimensionar el interior del objeto, este sistema consta de dos módulos: un sistema de dimensionamiento 2D de visión 
29
activa, y un sistema de posicionamiento que calcula la profundidad del sistema de dimensionamiento 2D de visión activa. La 
30
profundidad es calculada por la información proveniente de varios sensores de forma independiente los cuales son fusionados para 
31
obtener una medición de mayor precisión y exactitud. 
32
33
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: 65%;"
34
|-
35
| style="padding:10px;" | [[File:Draft_Gonzalez-Barbosa_236306777_4026_partes.jpg|600px]]
36
|- style="text-align: center; font-size: 75%;"
37
| colspan="1" style="padding-bottom:10px;" | '''Figura 1'''. (a) Anillo patrón. (b) Cilindro maestro. (c) Flecha de velocidad constante. (d) Parte de tren de aterrizaje para aviones. (e) Botellas de plástico. (f) Tubos. (g) Rodamientos para motor. (h) Ducto de refrigerador
38
|}
39
40
41
El sistema de dimensionamiento del interior de piezas con difícil acceso está basado en un fibroscopio modificado. La modificación 
42
consiste en la sustitución del sistema de iluminación original del fibroscopio por un sistema que proyecta una línea de luz. Esta 
43
línea de luz revela una sección transversal del interior del objeto bajo estudio. La línea de luz se obtiene mediante un LED de 
44
potencia encerrado entre 2 placas y unido por una extensión a la punta del fibroscopio (Figura 2 (a) y (b)). Las imágenes de 
45
diferentes secciones transversales del objeto son capturadas por una cámara conectada al ocular del fibroscopio por medio de un 
46
video acoplador (Figura 2 (c)).
47
48
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: 70%;"
49
|-
50
| style="padding:10px;" | [[File:Draft_Gonzalez-Barbosa_236306777_1609_fig2_comp.jpg|600px]]
51
|- style="text-align: center; font-size: 75%;"
52
| colspan="1" style="padding-bottom:10px;" | '''Figura 2'''. Sistema de visión activa para el dimensionamiento del interior de objetos. (a) y (b) Generación de la línea de luz. (c) Cámara conectada al ocular del fibroscopio por medio de un video acoplador
53
|}
54
55
56
El sistema que determina la profundidad de la visión activa, está conformado por un sistema de visión, un sensor magnético y un 
57
odómetro. El sistema de visión consta de una cámara y de un patrón de referencia pegado en las placas del sistema de iluminación, 
58
unidos al sistema de guiado del fibroscopio que componen al sistema de visión activa. El patrón está constituido por una matriz de 8 
59
columnas de círculos y 8 renglones de círculos de color blanco con fondo negro. La cámara es del tipo endoscopio digital flexible de 
60
7 mm de diámetro y una distancia de trabajo de 150 mm y captura imágenes con una resolución de 640x480 pixeles. El sensor magnético 
61
funciona como un potenciómetro cuyo valor de resistencia está relacionado con el valor de la posición, este puede adherirse a la 
62
pieza bajo medición, la lectura del sensor magnético se realiza mediante un módulo Bluetooth. El odómetro se coloca en forma 
63
paralela a la cámara y se desplaza en dirección al eje óptico de la cámara. Nuestra configuración del sistema está diseñado para una 
64
distancia óptima de 150 mm de profundidad. La principal aportación de este trabajo está centrada en el módulo de posicionamiento del 
65
sistema de dimensionamiento. La contribución de este módulo es la adaptación de un sistema de visión junto con la integración de 
66
sensores de desplazamiento lineal de bajo costo y fácil adaptación; un sensor magnético y un odómetro que es desarrollado por 
67
nosotros, para calcular el posicionamiento del sistema. En particular, el enfoque consiste en fusionar las mediciones provenientes 
68
de los sensores con el  fin de lograr estimaciones del posicionamiento del sistema más exactas, el cálculo de la posición es formulada utilizando técnicas de estimación como los filtros FK y FP que modelan el comportamiento lineal del sistema, ambos métodos 
69
han sido implementados con el propósito de reducir el error de la estimación resultante. La novedad de este trabajo es el desarrollo 
70
de un método de posicionamiento para el sistema de visión activa para la mejora del dimensionamiento de objetos.
71
72
==2. Estado del arte==
73
74
El sistema de escaneo tridimensional presentado está compuesto por un módulo de dimensionamiento de visión activa y un módulo de 
75
posicionamiento. El módulo de visión activa consta de un fibroscopio y un generador de luz. El módulo de posicionamiento está 
76
formado por un sistema de visión, un sensor magnético y un odómetro. La aplicación del sistema de medición se basa en la 
77
determinación de la profundidad del sistema de dimensionamiento 2D de visión activa, para poder dimensionar el interior del objeto 
78
con este sistema, cada componente ó todo el sistema de visión debe ser calibrado. Son pocos los artículos que especifican métodos 
79
particulares para calibrar una cámara conectada a un fibroscopio utilizada como parte del sistema de escaneo y que proponen un 
80
sistema de posicionamiento de luz activa con varios sensores para el dimensionamiento de objetos, en esta sección presentamos 
81
algunos trabajos comparativos con el presente trabajo.
82
83
===2.1 Visión Activa===
84
85
Los artículos que describen la calibración de la cámara conectada al ocular de un endoscopio los podemos dividir en dos grupos: los 
86
que se basan en la técnica propuesta por [1] como [2,3,4], y los que realizan la calibración considerando una lente de pescado 
87
(lente fish-eye) con un ángulo de visión superior a los 45 grados como los propuestos por [5,6,7,8]. El trabajo presentado 
88
por [9] consta de un sistema catadióptrico formado por un endoscopio y un espejo esférico. Los autores calibran el sistema de dos 
89
formas: usando el modelo pinhole presentado en [1] donde la distorsión radial modela la curvatura del espejo y proponen un modelo 
90
propio para el sistema. 
91
92
Varias de las publicaciones para el escaneo 3D de piezas huecas utilizando endoscopios rígidos o flexibles se encuentran en el campo 
93
de la medicina, por ejemplo [10-19] utilizan piezas de referencia para validar 
94
los escaneos 3D en el interior del cuerpo humano, por lo que bien pudieran ser utilizadas en el sector industrial. Los trabajos que 
95
utilizan endoscopios rígidos o  flexibles para escaneos 3D de utilidad en la industria son: [20,21,22,23,24,25]. En 
96
[20] se desarrolló un robot para inspeccionar tuberías con diámetros entre 20 cm y 50 cm, su sistema emite luz estructurada  para 
97
escanear tridimensionalmente el interior de las tuberías. En [21] se menciona que la mayoría de los trabajos dedicados a escaneos 3D 
98
a través de endoscopios han sido enfocados a patentes, el método de calibración de la cámara descrito es similar a nuestro trabajo, 
99
incluso la manera de comprobar la exactitud del sistema, ya que sigue la ideología de nuestro trabajo usando piezas de referencia. 
100
En [22] se utiliza un videoscopio y un escáner láser para realizar los escaneos 3D, la manera de comprobar la exactitud es con 
101
piezas de referencia y su trabajo está enfocado al área médica.
102
103
De acuerdo con [23], existen pocas publicaciones que describen el escaneo 3D de piezas huecas a partir de imágenes adquiridas con 
104
fibroscopios monoculares. Los trabajos [26,27], al igual que nosotros, utilizan un fibroscopio y escanean en 2D secciones 
105
transversales que luego posicionan mediante otro sistema. Sin embargo, [26,27] se basan en un enfoque de iluminación activa 
106
utilizando un espejo cónico para proyectar un rayo láser en forma de anillo sobre la superficie interior de la tráquea con el fin de 
107
encontrar estenosis. En el trabajo de [10] al igual que nosotros, proyectan un haz de luz para resaltar la superficie a medir, para 
108
ello utilizan un galvanómetro con el fin de resaltar diferentes zonas en el interior del órgano. Este trabajo encuentra también la 
109
relación angular entre la cámara y el láser con el fin de calcular coordenadas 3D. Para lograr el escaneo 3D, [16], proyecta un 
110
láser de color verde con el fin de triangular haciendo uso del láser y la cámara. [19] desarrolló su propio escáner endoscópico, su 
111
trabajo al igual que el nuestro proyecta uno o más anillos en el interior a escanear, con dichos anillos y una lente catadióptrica 
112
conectada a la cámara puede capturar puntos en 3D. En [23] el escaneo 3D es a partir de la extracción de puntos característicos de 
113
las imágenes y al igual que en este trabajo filtran las estructuras de panal de abeja para mejorar la calibración de la cámara y los 
114
escaneos 3D. [24] desarrollaron un sistema para inspeccionar barrenos que utiliza un endoscopio rígido y un proyector láser que 
115
proyecta un patrón circular. El sistema es guiado por un brazo robótico e inspecciona diámetros de barrenos entre 4 mm y 50 mm con 
116
una profundidad de 100 mm. [25] presentan una técnica conocida como Tomografía de Coherencia Óptica (OCT) para el escaneo 3D, 
117
también utilizaron un espejo cónico para la iluminación. Esta técnica no incluye componentes electro-mecánicos en la punta de la 
118
sonda. Dos revisiones que tratan el escaneo 3D utilizando endoscopios y análisis de imágenes tanto en el área médica como la 
119
industrial son presentados en [28,29]. Ninguna de estas revisiones presenta el diseño de un sistema de posicionamiento similar a 
120
nuestro trabajo, por lo que se puede considerar a nuestro sistema como innovador tomando en cuenta el sistema de iluminación 
121
propuesto, las metodologías para calibrar el sistema, la  integración de los sensores y la forma de calcular el posicionamiento de 
122
la luz activa y evaluar los errores de medición y su incertidumbre, donde la principal aportación es el desarrollo del sistema de 
123
posicionamiento.
124
125
La Tabla 1 muestra las principales características que presenta nuestro sistema para escanear el interior de piezas comparado con 
126
otros sistemas. Los artículos presentados en esta tabla utilizan luz estructurada con uno o varios planos, o proyectan luz con 
127
formas conocidas. Los trabajos que no usan luz estructurada, [23], detectan características en la imagen que son seguidas mientras 
128
el sistema de visión calibrado se desplaza de manera controlada, usando el método de factorización las características seguidas son 
129
escaneadas tridimensionalmente. La mayoría de los trabajos usan una referencia con el propósito de transformar las unidades de 
130
pixeles a unidades métricas. Pocos son los trabajos que hacen un análisis del error y de las incertidumbres del sistema de medición.
131
132
133
<div class="center" style="width: auto; margin-left: auto; margin-right: auto;font-size: 75%;">
134
'''Tabla 1'''. Principales características de nuestro sistema de medición de interiores comparado con otras propuestas</div>
135
136
<div class="center" style="width: auto; margin-left: auto; margin-right: auto;">
137
{| class="wikitable" style="margin: 1em auto 0.1em auto;border-collapse: collapse;font-size:85%;width:50%;" 
138
|- style="text-align:center;"
139
| Ref.    
140
| A)   
141
| B)  
142
| C)  
143
| D)  
144
| E)  
145
| F)  
146
| G)
147
|-style="text-align:center;"
148
| [26]       
149
| x  
150
| x
151
| 
152
| 
153
| 
154
| 
155
| x
156
|-style="text-align:center;"
157
| [27]       
158
| x  
159
| x  
160
|
161
|
162
|
163
|
164
|
165
|-style="text-align:center;"
166
|   [10]      
167
| x  
168
| x  
169
| x    
170
|
171
|
172
|
173
|
174
|-style="text-align:center;"
175
|    [16]       
176
| x  
177
| x  
178
| x   
179
|
180
|
181
|
182
|
183
|-style="text-align:center;"
184
|    [19]       
185
| x 
186
| 
187
| x 
188
|
189
|
190
|
191
|
192
|-style="text-align:center;"
193
|    [20]       
194
| x  
195
| x     
196
| 
197
| x  
198
|
199
|
200
|
201
|-style="text-align:center;"
202
|    [21]       
203
| x  
204
| x  
205
| x 
206
| x     
207
| 
208
| 
209
| x
210
|-style="text-align:center;"
211
|    [22]       
212
| x    
213
| 
214
| 
215
| x   
216
|
217
|
218
|
219
|-style="text-align:center;"
220
|    [23]    
221
| 
222
| x     
223
| 
224
| x 
225
|
226
|
227
|
228
|-style="text-align:center;"
229
|    [24]      
230
| x  
231
| x 
232
| x  
233
| x  
234
|
235
|
236
|
237
|-style="text-align:center;"
238
|    [25]        
239
| x  
240
| x  
241
| x  
242
| x 
243
|
244
|
245
|
246
|-style="text-align:center;"
247
| Nuestro trabajo  
248
| x 
249
| x 
250
| x  
251
| x  
252
| x  
253
| x  
254
| x
255
|}
256
</div>
257
258
<div class="left" style="width: auto; margin-left: auto; margin-right: auto;font-size: 75%;width:60%;">
259
A) Uso de luz estructurada, B) Uso endoscopio o fibroscopio, C) Uso de referencias,
260
D) Aplicación Industrial, E) Cálculo POSE de luz, F) Cálculo del error e incertidumbre, G) Cálculo de profundidad.
261
<br /></div>
262
263
===2.2 Determinación de la profundidad===
264
265
Existen en la literatura trabajos relacionados con la estimación de la posición basados en la visión y la integración de sensores. 
266
Algunos de los trabajos que utilizan sistemas de visión para calcular la posición de los objetos utilizando información proveniente 
267
de las imágenes capturadas por la cámara son [30-32]. Autores como [33] realizan una estimación de la posición utilizando 
268
un sistema de múltiples cámaras, la configuración de estos sistemas combinan las observaciones de todas las cámaras para calcular 
269
los parámetros de rotación y traslación del sistema a partir de una secuencia de imágenes. En [34] presentan un método que permite 
270
calcular los valores de la posición y rotación de la navegación de una cámara monocular, calculan directamente los parámetros de 
271
movimiento a partir de una serie de imágenes y estiman la precisión de los parámetros. El trabajo propuesto por [35] aborda el 
272
problema de localización utilizando la aplicación de un algoritmo de mapeo probabilístico y localización simultáneos (SLAM) 
273
utilizando una sola cámara. El algoritmo SLAM permite generar mapas probabilísticos del entorno dados los puntos de las proyecciones 
274
de la imagen; con los mapas obtenidos es posible generar trayectorias de navegación.
275
276
Otros trabajos utilizan múltiples sensores como láser, giroscopios, GPS, etc. Para obtener información del posicionamiento de un 
277
objeto y mejorar la estimación de la posición de este, que se basan en métodos probabilísticos para fusionar los datos de los 
278
sensores como el filtro de Kalman [36], mezcla de gaussianas [37], localización de markov para entornos dinámicos como [38], etc. En 
279
el trabajo de [39] se describe la implementación de algoritmos de navegación para determinar la posición de un robot móvil a partir 
280
de la estimación del odómetro cuando este se mueve en un entorno conocido, donde muestran la integración de odómetros en 
281
aplicaciones de robótica móvil, el robot puede rotar y trasladarse a través del entorno y a su vez medir estos movimientos para su 
282
localización. Otro sistema de localización de un robot móvil en un ambiente estructurado es el desarrollado por [40] su sistema 
283
combina un sistema de visión omnidirecional junto con un odómetro, calculan una estimación fiable de la posición debido a que 
284
realiza un ajuste en las mediciones al combinar los datos de los sensores utilizando un método de filtrado estadístico (EKF). En 
285
[41], plantean el problema de la localización y control de posición de un robot móvil mediante el uso de sensores y la fusión de 
286
datos obtenidos de estos sensores, primero son corregidos los datos obtenidos por los odómetros del robot y después retroalimentan 
287
el EKF para tener mayor control de la posición. Otro enfoque para resolver el problema de localización de un objeto es el trabajo 
288
presentado por [42] donde se utiliza un sistema de detección de posición lineal, utilizando una serie de sensores magneto 
289
resistivos (MR) y señales de acondicionamiento electrónico. Los sensores se utilizan para determinar la posición de un imán que está unido a un objeto en movimiento, estos sensores miden la relación de la posición del imán y la función del campo magnético para determinar la posición del objeto [43], en este trabajo se describe un nuevo sensor de desplazamiento magnético que mide la posición de un imán a 
290
lo largo de dos ejes. El cálculo de la posición se consigue midiendo la dirección del campo magnético. Los sensores utilizados en 
291
este trabajo son dos circuitos de montaje superficial, a diferencia del sensor que utilizamos en nuestro trabajo que es un sensor 
292
magnético de película delgada. En [44] se expone la implementación de un algoritmo de detección y seguimiento de objetos mediante un 
293
escáner láser, su sistema funciona a partir de la segmentación de los datos del sensor que permite determinar el número de objetos 
294
presentes en el entorno y determinar sus movimientos para poder llevar a cabo una navegación de forma segura. Otros autores como 
295
[45] describen la auto localización de un robot utilizando las mediciones de un sensor ultrasónico basado en el filtro de 
296
partículas, los autores introducen varios métodos de localización para eliminar el ruido del proceso y de la medición, muestran 
297
resultados comparativos entre el filtro EKF y FP para la localización del robot con ambos métodos.
298
299
En [46] proponen un método de localización de un objeto en movimiento a través de una secuencia de imágenes tomadas por una cámara, 
300
utiliza el filtro de partículas como algoritmo de seguimiento basado en la información de múltiples sensores, integran un sistema 
301
de visión junto con un sistema de control para seguir de forma continua el objeto. Al igual que autores como [47] que proponen un 
302
método de seguimiento objetos basado en el control de movimiento de una cámara utilizan el filtro de partículas para predecir la 
303
posición del objeto en movimiento correspondiente a la información obtenida de una imagen. Autores como [48] analizan el problema 
304
entre la detección de un objeto y la estimación de la profundidad y realizan un seguimiento del objeto usando filtro de partículas, 
305
donde la posición de este objeto es modelado para la estimación de la profundidad. En [49] los autores presentan el seguimiento de 
306
un objeto en una secuencia de video, en sustitución de un modelo dinámico del objeto utilizan el método de substracción de fondo 
307
para predecir las ubicaciones del objeto y la aplicación del filtro de partículas para el seguimiento del objeto. En este trabajo 
308
presentamos el desarrollo de algoritmos para dar una solución al problema de la estimación de la posición, para mejorar el 
309
dimensionamiento 2D del interior del objeto a escanear.
310
311
==3. Metodología==
312
313
En esta sección se presenta un sistema capaz de escanear el interior de objetos en dos etapas. La primer etapa realiza el 
314
dimensionamiento 2D de una sección transversal usando visión activa. La segunda etapa localiza el sistema de visión activa dentro 
315
del interior del objeto para asignarle al dimensionamiento 2D el valor de profundidad que corresponde a la posición de la luz 
316
activa.
317
318
El sistema cuenta con una cámara CCD monocromática (C1) con una resolución de 2448<math>\times></math>2046 pixeles y un sensor de 1/1.45" que se 
319
conecta al ocular del fibroscopio utilizando un video acoplador óptico (VA) ver Figura 2. Un fibroscopio de 7 mm de diámetro (FIBRO) 
320
con una longitud efectiva de 1320 mm, dispone de una distancia mínima de trabajo de 30.48 mm, y un campo de visión de 
321
aproximadamente 50 grados alrededor del eje vertical y 40 grados alrededor del eje horizontal. La configuración del sistema del 
322
sistema de medición propuesto se muestra en la Figura 3.
323
324
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto%;max-width: 80%;"
325
|-
326
| style="padding:10px;" | [[File:Draft_Gonzalez-Barbosa_236306777_2176_esquema.jpg|550px]]
327
|- style="text-align: center; font-size: 75%;"
328
| colspan="1" style="padding-bottom:10px;" | '''Figura 3'''. Esquema del sistema de medición propuesto. C1 corresponde a la cámara que junto al fibroscopio (FIBRO) y el LED de potencia (LP) dimensionan en 2D el interior del objeto. La profundidad del dimensionamiento 2D se realiza con: una ME que corresponde a la escala magnética que es leída por el módulo Bluetooth, BT; una micro cámara mC2 que usa un patrón de círculos colocado en una de las placas del LP; y un odómetro (ODO) es leído a través de la tarjeta STM. La computadora PC, recibe los puntos 2D de la cámara C1 y la profundidad reportada por los 3 sensores (mC2, ME y ODO) para completar el escaneo 3D
329
|}
330
331
332
La Figura 4 muestra la cámara endoscópica (mC2), que utiliza tecnología  optoelectrónica para inspeccionar áreas de difícil acceso. 
333
La cámara endoscópica (mC2) tiene un diámetro de 7 mm, las dimensiones son de 510.54 mm <math>\times</math> 7.62 mm <math>\times</math> 7.62 mm, la resolución es de 
334
640x480 pixeles (JPEG), adquiere a 30 cuadros por segundo (FPS) y usa una luz LED ajustable en la punta de la cámara para iluminar 
335
la zona de inspección. En la punta del fibroscopio se adjuntó un dispositivo de iluminación, omitiendo el sistema de iluminación 
336
proporcionado por el fibroscopio. Este dispositivo está formado por un LED de potencia de color rojo de 1 watt (LP) y dos placas 
337
rectangulares opacas unidas a la circunferencia del LED. Las placas rectangulares se colocan de tal manera que el componente emisor 
338
de luz del diodo está entre las placas (véase región del LP ampliada que muestra el LED entre placas sujetas al fibroscopio). De 
339
esta manera, la luz sólo puede salir a través de la ranura formada por las placas, formando un plano de iluminación que toma la 
340
forma de la sección transversal del interior donde se proyecte. Las placas tienen un patrón de círculos impresos, que junto con la 
341
cámara 2 (mC2) localizan el plano de luz al interior del objeto.
342
343
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto%;max-width: auto;"
344
|-
345
| style="padding:10px;" | [[File:Draft_Gonzalez-Barbosa_236306777_5472_endoscope.jpg|600px]]
346
|- style="text-align: center; font-size: 75%;"
347
| colspan="1" style="padding-bottom:10px;" | '''Figura 4'''. Cámara Endoscopica USB Super Eyes N005
348
|}
349
350
351
Otro sistema de posicionamiento usado es un sistema llamado magneto-pot o escala magnética (ME), que es un potenciómetro con una 
352
resistencia variable, su operación se fundamenta en la variación de la resistencia en función de la posición. La ME puede adherirse 
353
a la pieza bajo medición. La lectura de posición de la ME y el control de intensidad del LP se realizan mediante un módulo Bluetooth 
354
(BT). Una interfaz gráfica de usuario (PC) es utilizada para controlar y leer todos los dispositivos del sistema y procesar la 
355
información necesaria para realizar el escaneo 3D. Un tercer método para calcular el posicionamiento de las secciones transversales 
356
es utilizando un odómetro (ODO), el cual calcula el desplazamiento del LP uniendo la cuerda del odómetro a una de las placas del LP.
357
358
===3.1 Visión Activa===
359
360
El diagrama de flujo de la Figura 5 muestra la metodología para realizar el dimensionamiento o escaneo 2D. En él se muestran tres 
361
grandes bloques de operaciones delimitados con línea punteada. Procedimiento de calibración, trazabilidad, posición y orientación 
362
(POSE).
363
364
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto%;max-width: auto;"
365
|-
366
| style="padding:10px;" | [[File:Draft_Gonzalez-Barbosa_236306777_5893_diagrama.jpg|600px]]
367
|- style="text-align: center; font-size: 75%;"
368
| colspan="1" style="padding-bottom:10px;" | '''Figura 5'''. Diagrama de  flujo para el escaneo 2D del interior de piezas huecas
369
|}
370
371
372
El procedimiento de calibración que se muestra en el bloque superior calcula los parámetros intrínsecos de la cámara conectada al 
373
fibroscopio y los coeficientes de distorsión de la lente acoplada a la cámara. Los parámetros y los coeficientes son evaluados con 
374
el toolbox de Bouguet et al. [50] modificado para detectar círculos. El bloque de trazabilidad permite encontrar la POSE del plano 
375
de luz generado por el LED de potencia encerrado entre placas y la POSE de los anillos patrón, ambas POSEs respecto al sistema de 
376
coordenadas de referencia ubicado en la cámara. Los anillos proporcionan la trazabilidad  y corrección de la POSE del plano de luz. 
377
El último bloque del diagrama describe como el contorno de las secciones transversales 2D definidas en el plano imagen, se 
378
transforma en una nube de puntos (coordenadas 2D en el mundo) utilizando los parámetros intrínsecos de la cámara y la POSE del plano 
379
de luz. Cada uno de los bloques mostrados en la Figura 5 se encuentra descritos en [3].
380
381
===3.2 Determinación de la profundidad===
382
383
Para calcular la profundidad se usó un sistema de visión, un odómetro y un sensor magnético. Primeramente determinamos el modelo del 
384
sensor, después hicimos una corrección, la caracterización del sensor (Figura 6) y finalmente la fusión de los datos obtenidos 
385
por los sensores.
386
387
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto%;max-width: auto;"
388
|-
389
| style="padding:10px;" | [[File:Draft_Gonzalez-Barbosa_236306777_3485_caracyterizacion.jpg|600px]]
390
|- style="text-align: center; font-size: 75%;"
391
| colspan="1" style="padding-bottom:10px;" | '''Figura 6'''. Modelado, corrección y caracterización de los sensores para el cálculo de profundidad
392
|}
393
394
395
El sistema de visión utilizado consta de una cámara y un patrón de referencia pegado en una de las placas del LED de potencia. El 
396
modelo de la cámara usado es el pinhole. Para calcular los parámetros de la cámara usamos un patrón de calibración con círculos 
397
impresos. En la caracterización, el patrón se mueve respecto a la cámara en intervalos de 10 mm usando un sistema de  
398
posicionamiento calibrado, por ejemplo una Máquina de Medición por Coordenadas (CMM), el sistema es capaz de medir hasta una 
399
distancia de 150 mm. Se toman tres secuencias de medición para caracterizar el sistema de visión. 
400
401
Con el propósito de dar trazabilidad a los parámetros del modelo, se utiliza un patrón de calibración compuesto por una matriz de 8 
402
x 8 círculos. La posición de cada centro del círculo es calculado por una Máquina de Medición de Coordenadas Ópticas (OCMM). Con 
403
este procedimiento extra, eliminamos los errores que puede introducir la impresora que imprime el patrón de círculos. Se modificó el 
404
toolbox de Bouguet [51] para utilizar los círculos en el cálculo de los parámetros intrínsecos.
405
406
El odómetro es un sistema que está compuesto por un conjunto de tarjetas electrónicas STM 32F4 discovery que se encargan de adquirir 
407
y procesar la señal de los pulsos generados (Figura 7). Entre las partes que componen  el sistema se encuentra un módulo de 
408
medición lineal. El módulo lineal usa un encoder opto-electrónico con un carrete acoplado al mismo, se jala un cable por un sistema 
409
dentado con una cadena en la que cada vuelta el encoder hace un conteo de los pulsos generados. El conteo de los pulsos generados 
410
por el encoder relaciona las vueltas y el desplazamiento lineal de la cuerda que está sujeta al generador de luz estructurada. El 
411
modelo utilizado para el odómetro es un polinomio. Para calcular la corrección del polinomio usamos una Máquina de Medición de 
412
Coordenadas (CMM) y la metodología presentada en [52] para una sola dimensión. La caracterización del sensor se hizo de forma 
413
estadística aproximando la medición de los sensores a una distribución paramétrica normal.
414
415
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
416
|-
417
|  style="text-align: center;padding:10px;"| [[File:Draft_Gonzalez-Barbosa_236306777_2606_odo1.jpg|600px]]
418
|-
419
|  style="text-align: center;font-size: 75%;"|(a) Odómetro completo
420
|-
421
|  style="text-align: center;padding:10px;"| [[File:Draft_Gonzalez-Barbosa_236306777_1036_odo2.jpg|600px]]
422
|-
423
|  style="text-align: center;font-size: 75%;"|(b) Tarjeta STM 32F4 discovery que permite la lectura del odómetro y la interfaz de los datos
424
|- style="text-align: center; font-size: 75%;"
425
| colspan="2" style="padding:10px;"| '''Figura 7'''. Sensor odométrico
426
|}
427
428
429
El sensor magnético (ver Figura 8) está formado por un imán de posición sobre un eje de movimiento del dispositivo. El sistema de 
430
medición propone el uso de una escala magnética que funciona como un potenciómetro con una resistencia de 10K cuyo desplazamiento 
431
depende de las posiciones del imán, para calcular el desplazamiento lineal al hacer presión sobre la capa superior del sensor, un 
432
segundo imán se coloca sobre las placas del generador de luz (LP), lo que permite conocer el desplazamiento del sistema de luz 
433
activa. El modelo utilizado para el sensor magnético es un polinomio. Para la corrección del polinomio usamos una Máquina de 
434
Medición de Coordenadas (CMM) como en [52]. La caracterización del sensor de desplazamiento magnético se hizo de forma estadística 
435
considerando una distribución normal.
436
437
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto%;max-width: auto;"
438
|-
439
| style="padding:10px;" | [[File:Draft_Gonzalez-Barbosa_236306777_8202_blue_tht.jpg|600px]]
440
|- style="text-align: center; font-size: 75%;"
441
| colspan="1" style="padding-bottom:10px;" | '''Figura 8'''. Arriba: Módulo bluetooth. Abajo: Escala magnética
442
|}
443
444
445
===3.2.1 Modelo probabilístico del sistema ===
446
447
Sea <math>X</math> una variable que toma como posibles valores <math>x_1</math>, <math>x_2</math>, <math>x_n</math> que representan donde se encuentra posicionada la luz activa en un 
448
instante de tiempo <math>t</math>, donde a cada valor de la variable se le asocia un valor de probabilidad, entonces para el conjunto de valores 
449
de <math>X</math> junto con sus probabilidades se define la distribución de probabilidad como:
450
451
{| class="formulaSCP" style="width: 100%; text-align: left;"
452
|-
453
|
454
{| style="text-align: left; margin:auto;width: 100%"
455
|-
456
| style="text-align: center;" | <math>{P(X)=P(X=x_{1}) +P(X=x_{2})+\ldots +P(X=x_{n})}</math>
457
|}
458
| style="width: 5px;text-align: right;white-space: nowrap;" | (1)
459
|}
460
461
Si <math>x</math> es la localización del sistema en el instante actual <math>x(t)</math>, dadas una secuencia de observaciones medidas por los tres sensores 
462
<math>z=(z_1, z_2, \cdots ,z_n)</math>, entonces para calcular la posición del sistema en el instante actual a partir de cierta medida <math>z</math> se define un 
463
valor de probabilidad condicionada a todos los datos de los sensores disponibles mediante <math>P(x|z)</math>:
464
465
{| class="formulaSCP" style="width: 100%; text-align: left;"
466
|-
467
|
468
{| style="text-align: left; margin:auto;width: 100%"
469
|-
470
| style="text-align: center;" | <math>{P(x|z)={\frac{P(z|x)*P(x)}{P(z)}}}</math>
471
|}
472
| style="width: 5px;text-align: right;white-space: nowrap;" | (2)
473
|}
474
475
El problema general es estimar la posición del generador de luz activa con el sistema propuesto. Las mediciones del sistema son 
476
datos con incertidumbres que se pueden modelar mediante distribuciones de probabilidad (PDF), en este caso como una distribución 
477
gaussiana. La ecuación (3) describe la probabilidad de que el generador de luz activa se encuentre en la posición medida por el  sensor [53]
478
479
{| class="formulaSCP" style="width: 100%; text-align: left;"
480
|-
481
|
482
{| style="text-align: left; margin:auto;width: 100%"
483
|-
484
| style="text-align: center;" | <math>PDF =\frac{1}{\sigma\sqrt(2\pi)}e^{\frac{(X-z)^2}{\sigma^2}}</math>
485
|}
486
| style="width: 5px;text-align: right;white-space: nowrap;" | (3)
487
|}
488
489
donde <math>X</math> es el dato medido por el sensor <math>X_n</math> (sistema de visión, odómetro y magneto), <math>z</math> es la media y  <math>\sigma</math> es la desviación estándar de 
490
la distribución para la medición del sensor. Las PDF's resultantes <math>Pn(x)</math> para cada <math>X(n)</math> se utilizan para representar cada una de las mediciones de los sensores con sus incertidumbres, cada medición produce una distribución gaussiana de la posición del generador de 
491
la luz activa. Para cada sensor la media y la desviación estándar han sido calculadas para posiciones discretas, el desplazamiento 
492
de referencia de la luz activa fue hecho con la Máquina de Medición de Coordenadas (CMM). Los datos son interpolados para posiciones donde no se conoce la media y desviación estándar de referencia. Existen diferentes métodos para la interpolación de los datos, en este trabajo utilizamos el algoritmo de maximización de la esperanza (expectation-maximization, EM). La interpolación lineal de los datos está definida por [54]:
493
494
{| class="formulaSCP" style="width: 100%; text-align: left;"
495
|-
496
|
497
{| style="text-align: left; margin:auto;width: 100%"
498
|-
499
| style="text-align: center;" | <math>\mu_{n}= \alpha \mu_{1} + (1-\alpha)\mu_{2}</math>
500
|}
501
| style="width: 5px;text-align: right;white-space: nowrap;" | (4)
502
|}
503
504
{| class="formulaSCP" style="width: 100%; text-align: left;"
505
|-
506
|
507
{| style="text-align: left; margin:auto;width: 100%"
508
|-
509
| style="text-align: center;" | <math>\sigma^{2}_{n}=\alpha^{2}\sigma_{1}^{2} + (1-\alpha)^{2}\sigma_{2}^{2} +2(1-\alpha) \alpha cov(x_{1},x_{2})</math>
510
|}
511
| style="width: 5px;text-align: right;white-space: nowrap;" | (5)
512
|}
513
514
donde <math>(\mu_{1}, \sigma_{1})</math>, <math>(\mu_{2}, \sigma_{2})</math> corresponde a la media y desviación estándar para las posiciones desplazadas por la Máquina de Medición de 
515
Coordenadas (CMM), y <math>(\mu_{n}, \sigma_{n})</math> los datos estadísticos interpolados, <math>\alpha</math> es el parámetro de interpolación, indica la diferencia entre 
516
dos valores observados, dadas dos muestras aleatorias <math>X_1,X_2</math>, la <math>cov(X_1,X_2)</math> es la varianza de <math>\mu</math>, variable aleatoria unidimensional
517
<math>var(X)=cov(X_1, X_2)</math>.
518
519
===3.2.2 Fusión de sensores ===
520
521
La alineación de los sensores es importante ya que la posición inicial del  sistema se estima con esta referencia. Los datos 
522
obtenidos de los sensores son fusionados para mejorar la estimación de la posición del generador de luz activa (Figura 9). El 
523
odómetro y magneto adquieren datos los cuales son corregidos usando una curva polinómica previamente calculada. Las imágenes de la 
524
cámara son corregidas en cuanto la distorsión radial usando los coeficientes de distorsión.
525
526
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto%;max-width: auto;"
527
|-
528
| style="padding:10px;" | [[File:Draft_Gonzalez-Barbosa_236306777_1415_profundidad.jpg|600px]]
529
|- style="text-align: center; font-size: 75%;"
530
| colspan="1" style="padding-bottom:10px;" | '''Figura 9'''. Metodología utilizada para el cálculo de la profundidad
531
|}
532
533
534
Usando la  CMM, el sistema de dimensionamiento activo se desplazó varias veces a diferentes posiciones y se caracterizaron los datos 
535
de los sensores a diferentes posiciones de la CMM. Estas posiciones de la CMM son discretas, cuando una posición del sensor no ha 
536
sido caracterizada se usa la interpolación descrita en la Sección 3.2.1.
537
538
El siguiente paso será el de fusionar todos los sensores. Cuando se tienen datos de diferentes sensores lo conveniente es realizar 
539
una fusión de datos con el fin de disminuir el error en la estimación de la posición, la idea de la fusión de dos o más datos es 
540
combinar las PDF's de estas mediciones para obtener un solo conjunto de datos. Las correspondientes distribuciones se fusionan 
541
mediante la multiplicación de las PDF's dada la ecuación 6, que representa la multiplicación de los datos y esta definida como la 
542
distribución de probabilidad conjunta
543
544
{| class="formulaSCP" style="width: 100%; text-align: left;"
545
|-
546
|
547
{| style="text-align: left; margin:auto;width: 100%"
548
|-
549
| style="text-align: center;" | <math>P(X_1, X_2,\cdots, X_{{n}})(x_1, x_2,\cdots, x_{{n}}) =\prod_{n=1}^{n}P X_{{n}}(x_{{n}})</math>
550
|}
551
| style="width: 5px;text-align: right;white-space: nowrap;" | (6)
552
|}
553
554
De la resultante <math>P(X_1,X_2, \cdots ,X_n)</math> de la combinación de las PDF de cada sensor, extraemos los datos del valor esperado o media, 
555
<math>X_n=E[X_n]</math>, que representa la mejor estimación de la posición y la desviación estándar que es la  incertidumbre asociada al valor 
556
esperado de la posición <math>sigma= \surd(Var(n))</math> [55]. Entonces, la posición estimada de la luz activa es corregida mediante la fusión de 
557
estas distribuciones de probabilidad.
558
559
===3.3 Estimadores de posición ===
560
561
Los filtros de Kalman y Partículas son algoritmos que actualizan recursivamente una estimación del estado del sistema de visión 
562
activa dada una secuencia de observaciones. Utilizamos la aplicación de ambos filtros como estimadores del posicionamiento del 
563
sistema de dimensionamiento basado en luz activa para tener un mayor control de la medición de la posición. Ambos filtros comienzan 
564
con una representación del modelo dinámico del sistema, el filtro de Kalman estima la posición en base a retroalimentación del 
565
modelo lineal del sistema, mientras que el filtro de partículas lo hace en términos de la predicción de muestras aleatorias, la idea 
566
principal es representar la distribución de la posición del sistema. El modelo dinámico del sistema que describe el comportamiento 
567
del sistema es presentado por:
568
569
{| class="formulaSCP" style="width: 100%; text-align: left;"
570
|-
571
|
572
{| style="text-align: left; margin:auto;width: 100%"
573
|-
574
| style="text-align: center;" | <math>X_{n}=AX_{n-1} + w_{n}</math>
575
|}
576
| style="width: 5px;text-align: right;white-space: nowrap;" | (7)
577
|}
578
con una medida:
579
{| class="formulaSCP" style="width: 100%; text-align: left;"
580
|-
581
|
582
{| style="text-align: left; margin:auto;width: 100%"
583
|-
584
| style="text-align: center;" | <math>z_{n}=HX_{n}  +v_{n}</math>
585
|}
586
| style="width: 5px;text-align: right;white-space: nowrap;" | (8)
587
|}
588
589
donde <math>X_n</math> es el vector de estado que describe la posición del sistema, <math>w_n</math> representa el error de la estimación del estado, <math>v_n</math> es el 
590
error aleatorio asociado a las mediciones de los sensores y <math>z_n</math> es la medición conocida dada por el sistema en la posición actual. <math>A</math> 
591
y <math>H</math> son constantes iguales a 1 debido a que nuestro sistema de posicionamiento se mueve sobre un solo eje. El objetivo es dar una 
592
solución al problema de la estimación de la posición de la luz activa aplicando los algoritmos propuestos el FK y FP para estimar el 
593
vector de estado dado un conjunto de mediciones provenientes del sistema de medición, así, los filtros procesan las mediciones <math>z_n</math> 
594
sobre un conjunto de muestras, dando finalmente como resultado el valor estimado <math>X_n</math>.
595
596
===3.3.1 Filtro de Kalman ===
597
El Filtro de Kalman(FK) se utiliza para modelar sistemas lineales en el que las mediciones del sistema se ven afectadas por ruido 
598
aleatorio provenientes del comportamiento del sistema. Para hacer una estimación de los valores de la posición, el filtro requiere 
599
de los valores estadísticos del ruido del proceso y de las mediciones, las cuales son utilizados para la estimación de la posición 
600
de la luz activa para producir estimaciones que están mas cerca del valor real, a partir de las mediciones obtenidas de la mezcla de 
601
gaussianas se obtiene un vector de medición <math>z_n</math>, estas mediciones son utilizadas para inicializar el filtro.
602
603
Las ecuaciones definidas en la sección 3.3 representan a <math>X_n</math> como la ecuación del estado del sistema, <math>z_n</math> como la ecuación de las mediciones, a <math>v_n</math> como el error asociado a la medida y wn como el error asociado al sistema. <math>Q</math> es la covarianza del sistema relacionada con la diferencia entre el valor real del estado y la estimación, <math>R</math> es la covarianza del error de medición que se estima a partir de la desviación estándar de la medida de los sensores. Experimentalmente el filtro toma en cuenta los siguientes parámetros: el estado inicial del sistema se definió como <math>x0(0)=0</math>, la covarianza del sistema <math>Q=0.176</math> y la covarianza del error asociado a la medición fue <math>R=0.1</math>. Posteriormente se actualizan la ecuación de observación usando los estados estimados y la covarianza mediante las ecuaciones:
604
605
{| class="formulaSCP" style="width: 100%; text-align: left;"
606
|-
607
|
608
{| style="text-align: left; margin:auto;width: 100%"
609
|-
610
| style="text-align: center;" | <math>\hat X_{n|n-1}=A \hat X_{n-1|n-1}</math>
611
|}
612
| style="width: 5px;text-align: right;white-space: nowrap;" | (9)
613
|}
614
615
{| class="formulaSCP" style="width: 100%; text-align: left;"
616
|-
617
|
618
{| style="text-align: left; margin:auto;width: 100%"
619
|-
620
| style="text-align: center;" | <math>P_{n|n-1}=AP_{n-1|n-1}A^T+Q</math>
621
|}
622
| style="width: 5px;text-align: right;white-space: nowrap;" | (10)
623
|}
624
625
El término <math>K_n</math> minimiza la covarianza del error denominado como Ganancia de Kalman:
626
627
{| class="formulaSCP" style="width: 100%; text-align: left;"
628
|-
629
|
630
{| style="text-align: left; margin:auto;width: 100%"
631
|-
632
| style="text-align: center;" | <math>K_{n}=P_{n|n-1}H^T(HP_{n|n-1}H^T+R)^{-1}</math>
633
|}
634
| style="width: 5px;text-align: right;white-space: nowrap;" | (11)
635
|}
636
637
La ecuación de actualización de las medidas por el filtro esta definida por:
638
639
{| class="formulaSCP" style="width: 100%; text-align: left;"
640
|-
641
|
642
{| style="text-align: left; margin:auto;width: 100%"
643
|-
644
| style="text-align: center;" | <math>\hat X_{n|n}=\hat X_{n|n-1}+ K_{n}(z_{n}-H \hat X_{n|n-1})</math>
645
|}
646
| style="width: 5px;text-align: right;white-space: nowrap;" | (12)
647
|}
648
649
{| class="formulaSCP" style="width: 100%; text-align: left;"
650
|-
651
|
652
{| style="text-align: left; margin:auto;width: 100%"
653
|-
654
| style="text-align: center;" | <math>P_{n|n}=(I-K_{n}H) P_{n|n-1}</math>
655
|}
656
| style="width: 5px;text-align: right;white-space: nowrap;" | (13)
657
|}
658
659
Una vez descritas las ecuaciones matemáticas del filtro, se procedió a realizar la simulación correspondiente de las estimaciones. 
660
Las gráficas en la sección de resultados ilustran el comportamiento típico del filtro de Kalman, el objetivo de utilizar el filtro 
661
de Kalman es mostrar la estimación de la posición de la luz activa.
662
663
===3.3.2  Filtro de Partículas ===
664
665
Presentamos la aplicación del filtro de partículas (FP) como un modelo de estimación similar al filtro de Kalman, en cada estimación 
666
usa como entrada el valor de posición en el estado anterior y la medición actual de los sensores. El algoritmo consiste en definir 
667
el posicionamiento de la luz activa a partir de una PDF inicial <math>P(x0)</math> con un número de (<math>N</math>) partículas <math>(x(0:t)= 1, \cdots, N) </math>
668
utilizando los datos provenientes de los sensores, hemos decidido inicializar el filtro como sigue <math>x0=0</math> y <math>P(x0)=0.176</math>; con un número 
669
total de 100 partículas, estas partículas representan muestras aleatorias de posibles valores cercanos a la posición del sistema, en 
670
un segundo instante de tiempo cuando el sistema se mueve a la siguiente posición las partículas se desplazan intentando predecir la 
671
posición del sistema en ese instante de tiempo, las partículas dispersadas alrededor de esa posición son evaluadas y se determina la 
672
probabilidad de cada partícula asociada a un peso <math>wt= 1, \cdots ,N</math>, remuestrea anulando aquellas partículas con poco valor de 
673
probabilidad, después de estos pasos las partículas distribuidas con mayor peso tendrán mayor probabilidad de obtener una PDF en 
674
torno a una única solución para la estimación del posicionamiento de la luz activa, estimamos recursivamente esta distribución en 
675
cada momento en que una medida es tomada.
676
677
==4. Resultados==
678
679
===4.1. Visión activa===
680
El sistema de visión activa propuesto es capaz de dimensionar el interior de objetos que van desde los 20 mm a 60 mm en dimensiones 
681
transversales. Cualquier perfil interior uniforme y no uniforme se puede escanear siempre y cuando la cámara conectada al 
682
fibroscopio tenga una visión clara de la línea de luz LED que alcanza las paredes. El cálculo de la profundidad del dimensionamiento 
683
produce una nube de puntos 3D de la pieza bajo medición.
684
685
El fibroscopio genera estructuras en forma de panal de abeja que se manifiestan en las imágenes capturadas. Estas estructuras deben 
686
ser filtradas de lo contrario el procedimiento de calibración no puede realizarse a menos que se desarrolle un extractor de 
687
características inmune a este tipo de ruido. La Figura 10 muestra la imagen de un patrón de calibración capturado a través del 
688
fibroscopio.  En este trabajo se utilizaron dos filtros, uno propuesto por [56] y el otro propuesto por [57]. Después de algunas 
689
pruebas, se estableció que la aplicación de ambos filtros en secuencia, primero Winter y luego Xu, da excelentes resultados. La 
690
secuencia opuesta no funciona pues los resultados son similares con solo aplicar el filtro de Winter, Figura 10 (b). La Figura 10 
691
muestra los resultados individuales de ambos filtros y los resultados cuando se aplican en secuencia.
692
693
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: 80%;"
694
|-
695
|style="padding:10px;"|  [[File:Draft_Gonzalez-Barbosa_236306777_2175_filtro.jpg|600px]] 
696
|- style="text-align: center; font-size: 75%;"
697
| colspan="1" style="padding-bottom:10px;"| '''Figura 10'''. (a) Imagen con estructura de panal presentes. (b) Región de la imagen ampliada filtrando con Winter et al. [56]. (c) Zona de la imagen ampliada filtrando de acuerdo a Xu et al. [57]. (d) Región de la imagen ampliada utilizando el filtro de Winter, seguido por el filtro de Xu
698
|}
699
700
701
Una comparación de las mediciones de una sección transversal del cilindro de frenado de autos se realizó entre los resultados del 
702
sistema propuesto y los obtenidos por medio de una CMM. La CMM es un equipo calibrado trazable a  patrones nacionales y se puede 
703
utilizar como patrón de referencia.
704
705
La Figura 11 representa un escaneo 3D de interior del cilindro de frenado de autos. La Figura 11 (a) muestra el escaneo de varias 
706
secciones transversales en el interior del cilindro maestro. La Figura 11 (b) muestra el error del diámetro al comparar el diámetro 
707
del cilindro ajustado con todas las secciones transversales medidas por el sistema propuesto y el diámetro medido por una CMM. El 
708
error es de 0.028 mm con una incertidumbre de 0.050 mm la cual cubre dicho error. En la Figura 11 (b) también se aprecia la 
709
cilindricidad de 0.186 mm. El error de diámetro es una prueba de la exactitud del sistema propuesto en el dimensionamiento 2D. Los 
710
resultados de la Figura 11 (b) se obtuvieron con el software de medición certificado GOM Inspect V8.
711
712
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
713
|-
714
|style="padding:10px;"|  [[File:Draft_Gonzalez-Barbosa_236306777_2789_cilindro1.jpg|600px]]
715
|-
716
|  style="text-align: center;font-size: 75%;"|(a) Escaneo 3D del interior de un cilindro de frenado de autos como el mostrado en la Figura 1b
717
|-
718
|style="padding:10px;"|  [[File:Draft_Gonzalez-Barbosa_236306777_9073_cilindro2.jpg|600px]]
719
|-
720
|  style="text-align: center;font-size: 75%;"|(b) Medición de las secciones transversales del cilindro
721
|- style="text-align: center; font-size: 75%;"
722
| colspan="1" style="padding-bottom:10px;"| '''Figura 11'''. Escanea 3D del Cilindro
723
|}
724
725
===4.2. Determinación de la Profundidad ===
726
727
El LED de potencia se mueve a lo largo de una trayectoria dentro del objeto a escanear y se quiere medir su posición. Los tres 
728
sensores se mueven junto con el LED y toman mediciones, estas se agrupan en un vector de posición <math>X(n) = 1, 2, \cdots ,N</math>, donde <math>n</math> 
729
representa el número de veces que son tomadas las mediciones, <math>N</math> es el número de mediciones para una posición específica. Los datos 
730
se adquieren por medio de mediciones repetidas, para este experimento medimos tres secuencias de datos diferentes para cada sensor, 
731
con la repetición de las medidas observamos que se producen resultados iguales o similares debido a que estas están sujetas a 
732
errores asociados al sistema, una mejor manera de estimar estas mediciones es calculando la media de los datos para tener una 
733
aproximación al valor medido.
734
735
Una vez realizado el escaneo, se debe determinar el modelo del sistema de acuerdo con las lecturas recogidas por los sensores. Para 
736
realizar una estimación correcta de todas las posiciones <math>X</math> con sus incertidumbres que ocurren durante la adquisición de datos, 
737
asumimos que nuestros datos representan un conjunto de variables aleatorias independientes, uniformemente distribuidas que siguen 
738
una distribución normal gaussiana de acuerdo a <math>N(\mu ,\sigma )</math> con una media centrada en el punto medio y una desviación estándar que modela 
739
la incertidumbre.
740
741
Por lo que debemos encontrar los valores de sus parámetros estadísticos de la media <math>\mu</math> y la desviación estándar <math>\sigma</math> y a partir de 
742
estos podemos realizar una caracterización del modelo que pueda adecuarse a las posiciones que están más cerca de las posiciones 
743
reales. En secciones posteriores definimos formalmente el modelo del sensor definiendo cada una de las distribuciones de 
744
probabilidad para las lecturas de los sensores.
745
746
La Figura 12 muestra los resultados de las posiciones de la luz activa provenientes de datos de diferentes sensores, 15 posiciones 
747
diferentes se miden. La descripción del modelo del sistema está relacionado con estas mediciones, con los resultados obtenidos se 
748
observa el comportamiento de un sistema dinámico lineal de tres variables independientes con la misma tendencia. A partir de conocer 
749
el comportamiento del sistema vemos que en la zona de 80 a 150 mm es donde una variabilidad de medida está presente en el sensor 
750
odométrico, se demuestra que a partir de este intervalo se tienen un valor de 0.1 mm de error acumulado con referencia al valor 
751
medido para cada posición.
752
753
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
754
|-
755
|style="padding:10px;"|  [[File:Draft_Gonzalez-Barbosa_236306777_2634_mediamm.jpg|600px]]
756
|- style="text-align: center; font-size: 75%;"
757
| colspan="1" style="padding-bottom:10px;"| '''Figura 12'''. Gráfica de la posición del LED de potencia cada 10 mm, para cada sensor
758
|}
759
760
761
Cuando se hacen varias mediciones se puede obtener un valor estadístico del error, el error asociado a las mediciones de la posición 
762
se presenta en la Figura 13, con estos valores sabemos que la medición de la posición es proporcional a la desviación que presenta, 
763
y nos da la exactitud de éstas medidas, es decir, a mayor repetibilidad mayor exactitud. Al tomar en cuenta estas medidas nos dirá 
764
que tan preciso es el sensor con el que estamos midiendo. En la Figura 13 podemos apreciar que las incertidumbre en los datos 
765
presentados están contenidas en el rango de 0 hasta 3 mm . El intervalo en el que el sensor odométrico mostró un mayor error 
766
sistemático es de 50 mm a 100 mm que presenta incertidumbres cercanas a 3 mm, mientras que el sensor magnético en el intervalo de 20 
767
a 50 mm se aproxima a los 0.1 mm, a su vez el sensor óptico después de los 110 mm presenta variaciones de 0.1 mm debido a que en 
768
esas posiciones el campo visión de la cámara ya es limitado. Así pues podemos concluir que los sensores de menor error muestran 
769
mayor capacidad de adquirir los datos, esta información nos es útil analizarla ya que posteriormente al hacer la fusión de los datos 
770
esperamos que los sensores con menor variabilidad incluyan en la estimación final de la posición.
771
772
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
773
|-
774
|style="padding:10px;"| [[File:Draft_Gonzalez-Barbosa_236306777_1368_desviacionmm.jpg|600px]]
775
|- style="text-align: center; font-size: 75%;"
776
| colspan="1" style="padding-bottom:10px;"| '''Figura 13'''. Desviación estándar  σ de los sensores a diferentes posiciones
777
|}
778
779
780
===4.2.1 Modelado de sensores===
781
782
Al iniciar el análisis de una serie de datos un primer paso consiste en describir el comportamiento de estos. En nuestro caso 
783
estamos interesados en conocer un valor de posición después de la realización de una medición y la determinación de la distribución 
784
a la cual se refiere ese valor. Ya que nuestros resultados de medición son datos que miden una misma variable de manera repetida en 
785
intervalos de tiempo de 500 ms y que presentan cierta variación con respecto a la cantidad real de posición se asume que esta 
786
variación se ajusta a una distribución normal que representamos con PDF's centrado en la media que es el mejor valor de la posición 
787
medido en un intervalo de medición de 10 mm y con una dispersión en proporción del error de esta medición, conocer la distribución 
788
del conjunto de datos para cada sensor nos proporciona información de la posición. En la Figura 14 se muestran tres PDF's, la 
789
PDF1(x) representa al sensor óptico en rojo, en verde la PDF2(x) corresponde al sensor odométrico y en azul PDF3(x) al sensor magnético. Nuestro trabajo está enfocado en fusionar los resultados de estas distribuciones para dar una mejor estimación de la posición.
790
791
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
792
|-
793
|style="padding:10px;"| [[File:Draft_Gonzalez-Barbosa_236306777_7646_distribucionesmm.jpg|600px]]
794
|- style="text-align: center; font-size: 75%;"
795
| colspan="1" style="padding-bottom:10px;"| '''Figura 14'''. La estimación de la posición se representa como una distribución de probabilidad
796
|}
797
798
===4.3 Interpolación de PDF's===
799
800
En la Figura 14 se muestra el conjunto de datos medidos en posiciones discretas definidas con distribuciones de probabilidad (PDF's), sin embargo, en la práctica cuando se realizan las mediciones hay datos en los que el sistema se encuentra en alguna posición en la que no se guarda ese valor de medición, ya que la presencia de información faltante lleva consigo perdida de precisión en las estimaciones se debe tomar en cuenta alguna metodología para estimar estos datos faltantes. Para encontrar una solución a esto, proponemos el uso del método de la interpolación lineal con ella llegamos a la obtención del modelado de la distribución de la posición cuando toma un valor fuera de un intervalo discreto donde no hay mediciones disponibles.
801
802
La interpolación consiste en hallar un dato dentro de un intervalo en el que conocemos los valores extremos. Los puntos <math>X_1(N,\mu ,\sigma )</math> y 
803
<math>X_2(N,\mu ,\sigma)</math>, sean dos variables independientes asociadas a una distribución normal, entonces estimamos un valor de <math>X(N,\mu ,\sigma )</math> ubicado 
804
dentro del intervalo <math>X_1 < X < X_2</math> con sus estadísticos   <math>\mu</math> y  <math>\sigma</math> (Sección 3.2.1) asociados a una distribución <math>F(x)</math> interpolada.
805
806
===4.3.1  Fusión de datos===
807
808
La combinación de las distribuciones de los sensores depende de la asociación de las incertidumbres de estos y del impacto que den 
809
sobre el resultado de la medición cada distribución aporta información complementaria que puede incrementar la exactitud de la 
810
estimación de la posición del LED. Los resultados de las distribuciones que se fusionan mediante el producto de las PDF individuales 
811
de cada uno de los valores proporcionados por los diferentes sensores se muestran en la Figura 15. El producto final muestra una 
812
incertidumbre menor que cuando el error es proveniente de cada uno de los sensores de manera individual, ya que es posible que el 
813
sensor que presente una menor incertidumbre tendrá mayor impacto sobre el resultado de la medición, esta distribución total está 
814
asociada a un nuevo valor de posición.
815
816
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
817
|-
818
|style="padding:10px;"| [[File:Draft_Gonzalez-Barbosa_236306777_6365_fusedmm.jpg|600px]] 
819
|- style="text-align: center; font-size: 75%;"
820
| colspan="1" style="padding-bottom:10px;"| '''Figura 15'''. Fusión de los sensores a diferentes posiciones
821
|}
822
823
824
825
Una vez obtenida la distribución total se calcula la media y la desviación estándar estimados asociados a esta distribución, el 
826
estrechamiento de la distribución indica que la incertidumbre implícita se reduce, y la media se centra con mayor precisión con 
827
respecto a la posición objetivo real. En la Tabla 2 se recopilan los resultados. Con este método modelamos el error de la posición 
828
para la localización del LED de potencia, hemos demostrado que este método es capaz de encontrar una estimación de la posición del 
829
LED y podemos concluir que este método es capaz de realizar una estimación de la posición aun cuando los valores de los sensores 
830
sean muy ruidosos y aun cuando las contribuciones individuales de los sensores no sean buenas.
831
832
===4.3.2  Estimadores de posición===
833
834
Nuestro objetivo con la implementación de los filtros como estimadores de la posición es el de calcular de forma más precisa la 
835
posición del sistema. Primero fusionamos directamente las mediciones de los sensores en un solo vector de mediciones y después estos 
836
valores son utilizados por ambos filtros.
837
En el caso del FK resuelve el problema de la estimación de la posición, tomando el vector de mediciones para retroalimentar con 
838
estos valores a las ecuaciones que definen el comportamiento del sistema descritas en la sección 3.3. La principal ventaja de los 
839
filtros de Kalman es su eficiencia computacional en la realización de las operaciones al utilizar datos con distribuciones 
840
unidimensionales. Aunque a diferencia de otros filtros, el filtro de Kalman no permite la posibilidad de añadir o quitar sensores ya 
841
que se basa en un modelo específico del comportamiento del sistema. La fiabilidad y respuesta del filtro está ligado a la 
842
formulación del modelo y una vez definido el sistema con las variables que retroalimentan al filtro ningún otro valor puede ser 
843
quitado o añadido debido a que a partir de estos valores se retroalimenta el filtro. En cambio, el filtro de partículas realiza una 
844
estimación de la posición en base al muestreo aleatorio de partículas, considerando una distribución inicial propuesta que se 
845
utiliza para realizar una estimación de las distribuciones combinando las observaciones obtenidas con el sistema a lo largo del 
846
tiempo.
847
848
La Figura 16 representa los valores de medición de los datos iniciales que son procesados por ambos filtros. Los filtros procesan la 
849
medición de 15 muestras dando como resultado la señal estimada X. 
850
La Figura 17 muestra la estimación de las posiciones después de que los datos son procesados por los filtros, junto con los valores 
851
del movimiento real del objeto (rojo) con sus respectivos valores de posición estimados con ambos filtros, el filtro de kalman 
852
(azul) y el filtro de partículas(negro). Los resultados muestran la estimación de la posición en cada punto de medición, se observa 
853
que los valores de posición son estimados son muy similares a la real.
854
855
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
856
|-
857
|style="padding:10px;"| [[File:Draft_Gonzalez-Barbosa_236306777_3992_kalman_uno.jpg|600px]]
858
|- style="text-align: center; font-size: 75%;"
859
| colspan="1" style="padding-bottom:10px;"| '''Figura 16'''. Datos iniciales 
860
|}
861
862
863
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
864
|-
865
|style="padding:10px;"| [[File:Draft_Gonzalez-Barbosa_236306777_1452_med_filtros.jpg|600px]] 
866
|- style="text-align: center; font-size: 75%;"
867
| colspan="1" style="padding-bottom:10px;"| '''Figura 17'''. Estimación de las posiciones con FK y FP
868
|}
869
870
871
En la Figura 18, se muestra la incertidumbre de la posición con los métodos implementados, la línea roja representa la incertidumbre 
872
generada al fusionar las incertidumbres procedentes de los sensores utilizados observamos que existe una diferencia considerable con 
873
respecto a la incertidumbre obtenida de manera individual de cada sensor, los resultados con este método oscilan entre 1 mm a 3 mm, 
874
adicionalmente, implementamos los algoritmos FK (azul) y FP (negra) con el propósito de disminuir la incertidumbre de la estimación 
875
de la posición, observamos que con ambas implementaciones se produce una reducción de la incertidumbre de 1.64 mm y 0.73 mm 
876
respectivamente, los valores obtenidos  nos indican qué tan fiable es la medición que estamos obteniendo con nuestro sistema de 
877
posicionamiento, al tomar una decisión del método a utilizar para mejorar la posición del sistema.
878
879
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
880
|-
881
|style="padding:10px;"| [[File:Draft_Gonzalez-Barbosa_236306777_3029_pf_2.jpg|600px]]
882
|- style="text-align: center; font-size: 75%;"
883
| colspan="1" style="padding-bottom:10px;"| '''Figura 18''': Desviaciones de los filtros
884
|}
885
886
887
Los resultados de los algoritmos propuestos se muestran en la Tabla 2, donde se observan las posiciones y el error de medición, 
888
tanto para el algoritmo de mezcla de gaussianas con EM, FK y FP, los resultados muestran que los métodos implementados tienden a 
889
aproximarse a la posición real del sistema y ambos filtros pueden ser utilizados para la estimación de la posición, sin embargo, el 
890
filtro de partículas es el algoritmo que realiza una mejor estimación de la posición en comparación con los otros métodos, además, 
891
también se puede ver en los resultados de la Tabla 2 como la desviación estándar es menor en el algoritmo filtro de partículas lo 
892
que indica que los resultados son más estables manteniéndose el LED localizado a lo largo de todo el recorrido del escaneo. Se puede 
893
observar como todos los valores de posiciones y el error comprendido entre los valores obtenidos se reducen drásticamente con la 
894
implementación del  algoritmo FP, ya que el estimado que se obtiene sobre el error de su posición se mejora en comparación con los 
895
otros métodos.
896
897
Para llevar a cabo la evaluación del proceso de medición de nuestro sensor, se calcularon los valores de incertidumbre de la posición en cada punto de medición, siguiendo los cálculos establecidos en [58], mostrados en la Tabla 2 y en la Figura 19. Finalmente, la tabla 3 muestra el error promedio de los valores de incertidumbre de las mediciones obtenidas en la Tabla 2,  analizando los resultados obtenidos se puede ver que estos valores representan el 1% del error en la  medición calculado a partir de la dispersión de los datos con respecto al valor promedio de las medidas obtenidas por el sensor. 
898
899
900
<div class="center" style="width: auto; margin-left: auto; margin-right: auto;font-size: 75%;">
901
'''Tabla 2'''. Datos obtenidos de todas las estimaciones (mm)</div>
902
903
<div class="center" style="width: auto; margin-left: auto; margin-right: auto;">
904
{| class="wikitable" class="center" style="text-align: center;font-size:85%;" 
905
|-
906
| Distancia de referencia || Mezcla de gaussianas || Incertidumbre || FK || Incertidumbre || FP || Incertidumbre
907
|-
908
|0 || 0 || 0 || 0 || 0 || 0 || 0
909
|-
910
|10 || 11.072 || 0.8 || 10.881 || 0.7 || 10.481 || 0.3
911
|-
912
|20 || 20.87 || 0.7 || 17.521 || 2.0 || 21.131 || 0.9
913
|-
914
|30 || 31.215 || 0.9 || 28.324 || 1.3 || 30.796 || 0.6
915
|-
916
|40 || 41.565 || 1.2 || 41.119 || 0.9 || 40.41 || 0.3
917
|-
918
|50 || 52.148 || 1.7 || 51.555 || 1.2 || 50.903 || 0.7
919
|-
920
|60 || 62.774 || 2.2 || 62.508 || 2.0 || 61.989 || 1.6
921
|-
922
|70 || 72.5820 || 2.1 || 72.363 || 1.9 || 69.76 || 0.1
923
|-
924
|80 || 83.915 || 3.1 || 83.677 || 3.0 || 80.884 || 0.7
925
|-
926
|90 || 93.688 || 3.0 || 93.401 || 2.7 || 92.349 || 1.9
927
|-
928
|100 || 103.133 || 2.5 || 102.634 || 2.1 || 99.963 || 0.3
929
|-
930
|110 || 112.371 || 1.9 || 112.03 || 1.6 || 111.415 || 1.1
931
|-
932
|120 || 122.1810 || 1.7 || 121.251 || 1.0 || 119.466 || 0.4
933
|-
934
|130 || 131.388 || 1.1 || 130.786 || 0.6 || 130.326 || 0.2
935
|-
936
|140 || 142.619 || 2.1 || 141.854 || 1.5 || 141.056 || 0.8
937
|}
938
</div>
939
940
941
<div class="left" style="width: auto; margin-left: auto; margin-right: auto;font-size: 75%;">
942
'''Tabla 3''': Incertidumbres obtenidas de estimaciónes de posición discretas (mm)
943
</div>
944
{| class="wikitable" style="align: center;" 
945
|-
946
! incertidumbre !! Mezcla de gausssianas !! FK !! FP
947
|-
948
|  || 1.8 || 1.64 || 0.73
949
|}
950
951
Los resultados experimentales muestran que el error de medición del sensor propuesto está dentro del 1%. Este resultado se compara a continuación con el obtenido en otros trabajos, en los que se presentan sistemas que proporcionan información útil para aplicaciones de navegación e inspección de tuberías y modelado 3D. Autores como [59] presentan un sistema de visión capaz de obtener información de la profundidad con un error de estimación menor al 2%. Un sistema de visión para el escaneo de tuberías 3D como el propuesto en [60], en el método de escaneo consiste en proyectar un haz de luz  circular sobre la  superficie del tubo, que permite calcular la posición de escaneo con  una resolución de menos del 1%.  En [61] demuestran  cómo se puede realizar la medición del perfil interno de piezas cilíndricas con una resolución del 2 %. Mientras que en [62] proponen un sistema de medición para la reconstrucción 3D de tuberías,  el método consiste en estimar el movimiento de la cámara  con referencia las coordenadas 3D de la sección de luz, este sistema puede estimar el movimiento de la cámara  con un error del 3 %. En  [63] proponen un método de localización simultánea para estimar con precisión la posición de un instrumento utilizado con aplicaciones quirúrgicas, con una precisión menor del  2%. En [64] proponen un sistema para la inspección de tuberías que consiste en un robot móvil que se desplaza en el interior del ducto, la posición del móvil es medida a través de un distanciómetro láser con una precisión del 3%.  En [65] presentan una técnica de estimación de la posición de la cámara dentro de la tubería con una precisión del 1%. De los resultados obtenidos con el sistema de medición propuesto en nuestro trabajo, se deduce que la precisión de nuestro sensor puede considerarse del mismo nivel que los trabajados mencionados, lo que demuestra que este sensor es adecuado para utilizarse en procesos donde es posible adaptar mediciones ópticas donde se espera que el sistema sea capaz de evaluar el perfil de la superficie interna de la pieza a medir.
952
953
{| style="text-align: center; border: 1px solid #BBB; margin: 1em auto; width: auto;max-width: auto;"
954
|-
955
|style="padding:10px;"|  [[File:Cano-Rodriguez_et_al_2018a_1655_tuberia.jpg|600px]]
956
|- style="text-align: center; font-size: 75%;"
957
| colspan="1" style="padding-bottom:10px;"| '''Figura 19'''. Comparación con otras técnicas en términos de precisión
958
|}
959
960
==4. Conclusiones==
961
Se ha presentado un sistema para el escaneo de interiores en 3D, donde definimos un sistema para el dimensionamiento en 2D de las 
962
secciones transversales del interior de partes, nos enfocamos en realizar un sistema de medición para determinar de la posición del 
963
LED de potencia que fusiona sensores odométrico, magnético y óptico. Los resultados iniciales de las posiciones del LED llevaron a 
964
la observación de que es preciso que la referencia del sistema mantenga una posición de referencia fija, para que la asociación de 
965
datos no falle y las mediciones del sistema lleven una incorrecta estimación o error de la posición. En los resultados mostramos 
966
cómo las posiciones del LED pueden ser estimadas. El modelo lineal del sistema utilizado se basa en la asociación de datos, resuelto 
967
mediante mezcla de gaussianas con EM y después se desarrollaron y probaron los métodos de FK y FP con el propósito de estimar la 
968
posición del sistema de dimensionamiento, mostramos los resultados con la finalidad de destacar que ambos filtros tienen 
969
comportamientos similares, se encontró que existe un error sistemático de 1.64 mm y 0.73 mm respectivamente logrando de esta forma 
970
obtener resultados que permiten mejorar la medición de la posición del LED. Los resultados del posicionamiento obtenidos con el 
971
sistema de medición propuesto se comparan con los resultados de trabajos existentes y se presentan en la Figura 19, la solución que 
972
proporcionan estas técnicas son cercanos a los presentados por nuestro sistema, lo que indica que el sistema de escaneo se puede 
973
utilizar para diferentes aplicaciones
974
975
==Referencias==
976
<div class="auto" style="width: auto; margin-left: auto; margin-right: auto;font-size: 85%;">
977
978
<span id='_Ref449083719'></span>
979
<div id="1"></div>
980
[[#cite-1|[1]]] Z. Zhang, Flexible camera calibration by viewing a plane from unknown orientations, Computer Vision, 1999. The Proceedings of the Seventh IEEE International Conference on 1 (1999) 666-673.
981
982
<div id="2"></div>
983
[[#cite-2|[2]]] S. Rupp, C. Winter, T. Wittenberg, Camera Calibration from Fiberscopic Views with Accuracy Evaluation, Bildverarbeitung für die Medizin 2006.  
984
985
<div id="3"></div>
986
[[#cite-3|[3]]] O. Icasio-Hernández, J.-J. Gonzalez-Barbosa, J. Hurtado-Ramos, M. Viliesid-Alonso, 3d reconstruction of hollow parts analyzing images acquired by a fiberscope, Measurement Science and Technology 25 (7). doi:10.1088/0957-0233/25/7/075402.
987
988
<div id="4"></div>
989
[[#cite-4|[4]]] L. Chen, V. Bavigadda, T. Ko_dis, R. Howe, Fiber optic projection-imaging system for shape measurement in confined space, The ScientificWorld Journal 2014. doi:10.1155/2014/206569
990
991
<div id="5"></div>
992
[[#cite-5|[5]]] T. Stehle, D. Truhn, T. Aach, C. Trautwein, J. Tischendorf, Camera calibration for fish-eye lenses in endoscopy with an application to 3D reconstruction, in: Proceedings IEEE International Symposium on Biomedical Imaging (ISBI), IEEE, Washington, D.C., 2007, pp. 1176-1179 (CD_ROM, ISBN: 1-4244-0672-2).
993
994
<div id="6"></div>
995
[[#cite-6|[6]]] J. Barreto, J. Santos, Ray-based calibration of rigid medical endoscopes, The 8thWorkshop Omnidirectional Vision Camera Networks and Non Classical Cameras.
996
997
<div id="7"></div>
998
[[#cite-7|[7]]] J. P. Barreto, J. Roquette, P. Sturm, F. Fonseca, Automatic Camera Calibration Applied to Medical Endoscopy, Procedings of the British Machine Vision Conference 2009 (2009) 52.1-52.10doi:10.5244/C.23.52.
999
1000
<div id="8"></div>
1001
[[#cite-8|[8]]] R. Melo, J. Barreto, G. Falcão, A new solution for camera calibration and real-time image distortion correction in medical endoscopy-initial technical  evaluation., IEEE transactions on bio-medical engineering 59 (3) (2012) 634-44. doi:10.1109/TBME.2011.2177268.
1002
1003
<div id="9"></div>
1004
[[#cite-9|[9]]] C. Schmalz, F. Forster, A. Schick, E. Angelopoulou, An endoscopic 3d scanner based on structured light, Medical Image Analysis 16 (5) (2012) 1063-1072.doi:10.1016/j.media.2012.04.001
1005
1006
<div id="10"></div>
1007
[[#cite-10|[10]]] M. Hayashibe, N. Suzuki, Y. Nakamura, Laser-scan endoscope system for intraoperative geometry acquisition and surgical robot safety management., Medical image analysis 10 (4) (2006) 509-19. doi:10.1016/j.media. 2006.03.001.
1008
1009
<div id="11"></div>
1010
[[#cite-11|[11]]] C.h. Wu, Y. n. Sun, C.c. Chang, Three-Dimensional Modeling From Endoscopic Video Using Geometric Constraints Via Feature Positioning, IEEE TRANSACTIONS ON BIOMEDICAL ENGINEERING 54 (7) (2007) 1199-1211.
1011
1012
<div id="12"></div>
1013
[[#cite-12|[12]]] ] C. Wu, S. Narasimhan, B. Jaramaz, Shape-from-shading under near point lighting and partial views for orthopedic endoscopy, in: Proceedings of the  First Int. Workshop on PACV 2007.
1014
1015
<div id="13"></div>
1016
[[#cite-13|[13]]] G.h. Wang, J.q. Han, X.m. Zhang, Three-dimensional reconstruction of endoscope images by a fast shape from shading method, Measurement Science and Technology 20 (12) (2009) 125801. doi:10.1088/0957-0233/ 20/12/125801.
1017
1018
<div id="14"></div>
1019
[[#cite-14|[14]]] L. Criante, A. Lucesoli, B. Farabollini, F. Bonifazi, T. Rozzi, F. Simoni, Size measurement in endoscopic images by low coherence interferometry, Journal of Optics A: Pure and Applied Optics 11 (3) (2009) 034007. doi: 10.1088/1464-4258/11/3/034007.
1020
1021
<div id="15"></div>
1022
[[#cite-15|[15]]] J. Penne, K. Höller, M. Stürmer, T. Schrauder, A. Schneider, R. Engel brecht, H. Feussner, B. Schmauss, J. Hornegger, Time-of-Flight 3-D endoscopy., Medical image computing and computer-assisted intervention : MICCAI ... International Conference on Medical Image Computing and
1023
Computer-Assisted Intervention 12 (Pt 1) (2009) 467-74.
1024
1025
<div id="16"></div>
1026
[[#cite-16|[16]]] C. Daul, W. Blondel, From 2D towards 3D cartography of hollow organs,  in: Computing Science and Automatic Control, CCE 2010, no. Cce, 2010, pp. 285-293.
1027
1028
<div id="17"></div>
1029
[[#cite-17|[17]]] T. Seki, K. Oka, A. Naganawa, H. Yamashita, K. Kim, T. Chiba, Laser distance measurement using a newly developed composite-type optical fiberscope for fetoscopic laser surgery, Optics and Lasers in Engineering 48 (10)  (2010) 974-977. doi:10.1016/j.optlaseng.2010.05.010.
1030
1031
<div id="18"></div>
1032
[[#cite-18|[18]]] K. Arai, Method for 3D Object Reconstruction Using Several Portions of 2D Images from the Diferent Aspects Acquired with Image Scopes Included in the Fiber Retractor, International Journal of Advanced Research in Artificial Intelligence 1 (9) (2012) 14-19.
1033
1034
<div id="19"></div>
1035
[[#cite-19|[19]]]C. Schmalz, F. Forster, A. Schick, E. Angelopoulou, An endoscopic 3d scanner based on structured light, Medical Image Analysis 16 (5) (2012)1063-1072. doi:10.1016/j.media.2012.04.001.
1036
1037
<div id="20"></div>
1038
[[#cite-20|[20]]] M. Hartrumpf, R. Munser, Optical three-dimensional measurements by radially symmetric structured light projection, Applied Optics 36 (13) (1997) 2923-2928.
1039
1040
<div id="21"></div>
1041
[[#cite-21|[21]]] D. Schaack, Making accurate, three-dimensional measurements through a standard borescope, Vol. 3397, 1998, pp. 264_276. doi:10.1117/12. 305062
1042
1043
<div id="22"></div>
1044
[[#cite-22|[22]]] K. Hasegawa, K. Noda, Y. Sato, Electronic endoscope system for shape  measurement, Vol. 16, 2002, pp. 792-795.
1045
1046
<div id="23"></div>
1047
[[#cite-23|[23]]] C. Winter, I. Scholz, Reconstruction of tubes from monocular fiberscopic images-Application and first results, in: Vision, Modeling, and Visualization, 2005, pp. 57-64.
1048
1049
<div id="24"></div>
1050
[[#cite-24|[24]]] G. Biegelbauer, M. Vincze, 3D Vision-Guided Bore Inspection System,  in: Fourth IEEE International Conference on Computer Vision Systems (ICVS'06), no. Icvs, Ieee, 2006, pp. 22- 22. doi:10.1109/ICVS.2006.1
1051
1052
<div id="25"></div>
1053
[[#cite-25|[25]]] H. D. Ford, R. P. Tatam, Passive OCT probe head for 3D duct inspection, Measurement Science and Technology 24 (9) (2013) 094001. doi:10.1088/0957-0233/24/9/094001.
1054
1055
<div id="26"></div>
1056
[[#cite-26|[26]]] A. Müller, M. Schubert, E. Beleites, Noncontact three-dimensional laser measuring device for tracheoscopy, Annals of Otology, Rhinology and Laryngology 111 (9) (2002) 821-827.
1057
1058
<div id="27"></div>
1059
[[#cite-27|[27]]] W. Dörfiel, Y. Sugano, D. Stalling, L. Coconu, D. Hentschel, G. Linÿ, C. Witt, Laser-based endoscopic measurement of airway dimensions, Pneumologie 57 (9) (2003) 503-509. doi:10.1055/s-2003-42220-1.
1060
1061
<div id="28"></div>
1062
[[#cite-28|[28]]] J. Williamson, A. James, M. Phillips, D. Sampson, D. Hillman, P. Eastwood, Quantifying tracheobronchial tree dimensions: Methods, limitations and emerging techniques, European Respiratory Journal 34 (1) (2009) 42-55. doi:10.1183/09031936.00020408.
1063
1064
<div id="29"></div>
1065
[[#cite-29|[29]]] J. Geng, J. Xie, Review of 3-d endoscopic surface imaging techniques, IEEE Sensors Journal 14 (4) (2014) 945_960. doi:10.1109/JSEN.2013.2294679.
1066
1067
<div id="30"></div>
1068
[[#cite-30|[30]]] D. Yang, Z. Liu, F. Sun, J. Zhang, H. Liu, S. Wang, Recursive depth parametrization of monocular visual navigation: Observability analysis and performance evaluation, Information Sciences 287 (2014) 38_49. doi: 10.1016/j.ins.2014.07.025
1069
1070
<div id="31"></div>
1071
[[#cite-31|[31]]] H. Firouzi, H. Najjaran, Real-time monocular vision-based object tracking with object distance and motion estimation, IEEE/ASME International Conference on Advanced Intelligent Mechatronics, AIM (2010) 987-992doi:10.1109/AIM.2010.5695936.
1072
1073
<div id="32"></div>
1074
[[#cite-32|[32]]] Z. Zhang, Y. Han, Y. Zhou, M. Dai, A novel absolute localization estimation of a target with monocular vision, Optik 124 (12) (2013) 1218-1223. doi: 10.1016/j.ijleo.2012.03.032.
1075
1076
<div id="33"></div>
1077
[[#cite-33|[33]]]A. Assa, F. Janabi-Shari_, Virtual visual servoing for multicamera pose estimation, IEEE/ASME Transactions on Mechatronics 20 (2) (2014) 789- 798. doi:10.1109/TMECH.2014.2305916.
1078
1079
<div id="34"></div>
1080
[[#cite-34|[34]]] D. Burschka, E. Mair, Direct pose estimation with a monocular camera, Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics) 4931 LNCS (2008) 440_453. doi:10.1007/978-3-540-78157-8\_34.
1081
1082
<div id="35"></div>
1083
[[#cite-35|[35]]] B. Williams, G. Klein, I. Reid, Real-time slam relocalisation, 2007. doi: 10.1109/ICCV.2007.4409115.
1084
1085
<div id="36"></div>
1086
[[#cite-36|[36]]] P. Owczarek, J. Go±li«ski, D. Rybarczyk, A. Kubacki, Control of an Electro-Hydraulic Manipulator by Vision System Using Central Point of a Marker Estimated via Kalman Filter, Springer International Publishing, Cham,  2016, pp. 587-596. doi:10.1007/978-3-319-29357-8\_51.
1087
1088
<div id="37"></div>
1089
[[#cite-37|[37]]] A. W. Stroupe, M. C. Martin, T. Balch, Merging Gaussian Distributions for Object Localization in Multi-Robot Systems, Springer Berlin Heidelberg, Berlin, Heidelberg, 2001, Ch. 6, pp. 343- 352. doi:10.1007/ 3-540-45118-8\_35.
1090
1091
<div id="38"></div>
1092
[[#cite-38|[38]]] D.  Fox, W. Burgard, S. Thrun, Markov localization for mobile robots in dynamic environments, Journal of Artificial Intelligence Research 11 (1999) 391-427.
1093
1094
<div id="39"></div>
1095
[[#cite-39|[39]]] J. O'Kane, Global localization using odometry, Vol. 2006, 2006, pp. 37-42. doi:10.1109/ROBOT.2006.1641158.
1096
1097
<div id="40"></div>
1098
[[#cite-40|[40]]] L. Delahoche, C. Pegard, B. Marhic, P. Vasseur, Navigation system based on an omnidirectional vision sensor, Vol. 2, 1997, pp. 718-724.
1099
1100
<div id="41"></div>
1101
[[#cite-41|[41]]] P. Eberhard, Q. Tang, Sensor data fusion for the localization and position control of one kind of omnidirectional mobile robots, 2013. doi:10.1007/ 978-3-7091-1289-2\_4.
1102
1103
<div id="6"></div>
1104
[[#cite-42|[42]]] M. Caruso, T. Bratland, C. Smith, R. Schneider, Anisotropic magnetoresistive sensors: Theory and applications, Sensors (Peterborough, NH) 16 (3) (1999) 18-26.
1105
1106
<div id="43"></div>
1107
[[#cite-43|[43]]] C. Schott, R. Racz, F. Betschart, R. Popovic, A new two-axis magnetic position sensor, Vol. 1, 2002, pp. 911-915.
1108
1109
<div id="44"></div>
1110
[[#cite-44|[44]]] M. Bosch-Jorge, A. Soriano, A. Valera, A. J. Sánchez Salmerón, Detección y seguimiento de objetos móviles utilizando un escáner láser mediante filtros de kalman, Comité Español de Automática (CEA-IFAC), Valencia (Spain), 2014.
1111
1112
<div id="45"></div>
1113
[[#cite-45|[45]]] J. Woo, Y. . Kim, J. . Lee, M. . Lim, Localization of mobile robot using  particle filter, in: 2006 SICE-ICASE International Joint Conference, 2006, pp. 3031-3034
1114
1115
<div id="46"></div>
1116
[[#cite-46|[46]]] P. Vadakkepat, L. Jing, Improved particle filter in sensor fusion for tracking randomly moving object, IEEE Transactions on Instrumentation and  Measurement 55 (5) (2006) 1823-1832.
1117
1118
<div id="47"></div>
1119
[[#cite-47|[47]]] C. Yuan, M. Lianchuan, W. Ma, Mobile target tracking based on hybrid open-loop monocular vision motion control strategy, Discrete Dynamics in Nature and Society 2015.
1120
1121
<div id="48"></div>
1122
[[#cite-48|[48]]] Z. Boukhers, K. Shirahama, F. Li, M. Grzegorzek, Object detection and depth estimation for 3d trajectory extraction, in: Proceedings - International Workshop on Content-Based Multimedia Indexing, Vol. 2015-July, 2015.
1123
1124
<div id="49"></div>
1125
[[#cite-49|[49]]] A. K. Sanjay S., S.D Kamble, Object detection and tracking using particle filters (5 2015).
1126
1127
<div id="50"></div>
1128
[[#cite-50|[50]]] J.-Y. Bouguet, Camera calibration toolbox for matlab (2015).
1129
1130
<div id="51"></div>
1131
[[#cite-51|[51]]] J. Y. Bouguet, Camera calibration toolbox for Matlab (2008).
1132
1133
<div id="52"></div>
1134
[[#cite-52|[52]]] Y.-I. Curiel-Razo, O. Icasio-Hernández, G. Sepúlveda-Cervantes, J.-B. Hurtado-Ramos, J.-J. González-Barbosa, Leap motion controller three dimensional verification and polynomial correction, Measurement 93 (2016) 258 - 264. doi:http://dx.doi.org/10.1016/j.measurement.2016.07. 017.
1135
1136
<div id="53"></div>
1137
[[#cite-53|[53]]] D. Elsaesser, Sensor data fusion using a probability density grid, FUSION 2007 - 2007 10th International Conference on Information Fusiondoi:10.1109/ICIF.2007.4408047.
1138
1139
<div id="54"></div>
1140
[[#cite-54|[54]]] S. Schlegel, N. Korn, G. Scheuermann, On the interpolation of data with normally distributed uncertainty for visualization, IEEE Transactions on Visualization and Computer Graphics 18 (12) (2012) 2305-2314. doi: 10.1109/TVCG.2012.249
1141
1142
<div id="55"></div>
1143
[[#cite-55|[55]]] S. Thrun, W. Burgard, D. Fox, Probabilistic robotics (intelligent robotics and autonomous agents). 
1144
1145
<div id="56"></div>
1146
[[#cite-56|[56]]] C. Winter, S. Rupp, M. Elter, C. Münzenmayer, H. Gerhäuser, T. Wit tenberg, Automatic adaptive enhancement for images obtained with fiberscopic endoscopes., IEEE transactions on bio-medical engineering 53 (10) (2006) 2035-46. doi:10.1109/TBME.2006.877110.
1147
1148
<div id="57"></div>
1149
[[#cite-57|[57]]] L. Xu, Q. Yan, Y. Xia, J. Jia, Structure extraction from texture via relative total variation, ACM Transactions on Graphics (TOG).
1150
1151
<div id="58"></div>
1152
[[#cite-58|[58]]]ISO, 1995. Guide to Expression of Uncertainty in Measurement, 1st ed. International Standard Organization.
1153
1154
<div id="59"></div>
1155
[[#cite-59|[59]]] Orghidan, R., Salvi, J., Mouaddib, E. M., 2005. Accuracy estimation of a new omnidirectional 3d vision sensor. En: Image Processing, 2005. ICIP 2005. IEEE International Conference on. Vol. 3. IEEE, pp. III–365.
1156
1157
<div id="60"></div>
1158
[[#cite-60|[60]]] Totani, H., Goto, H., Ikeda, M., Yada, T., 1995. Miniature 3D optical scanning sensor for pipe-inspection robot. En: Microrobotics and Micromechanical Systems. Vol. 2593. International Society for Optics and Photonics, pp. 21–30.
1159
1160
<div id="61"></div>
1161
[[#cite-61|[61]]] Wakayama, T., Yoshizawa, T., 2013. Uni-axial inner profile measurement. Dimensional Optical Metrology and Inspection for Practical Applications II. Vol. 8839. International Society for Optics and Photonics, p. 88390L.
1162
1163
<div id="62"></div>
1164
[[#cite-62|[62]]] Matsui, K., Yamashita, A., Kaneko, T., 2010. 3-d shape measurement of pipe by range finder constructed with omni-directional laser and omni-directional camera. Robotics and Automation (ICRA), 2010 IEEE International Conference on. IEEE, pp. 2537–2542.
1165
1166
<div id="63"></div>
1167
[[#cite-63|[63]]]Sadjadi, H., Hashtrudi-Zaad, K., Fichtinger, G., 2016. Simultaneous localization and calibration for electromagnetic tracking systems. The International Journal of Medical Robotics and Computer Assisted Surgery 12 (2), 189–198.
1168
1169
<div id="64"></div>
1170
[[#cite-64|[64]]]Liu, Z., Krys, D., 2012. The use of laser range finder on a robotic platform for pipe inspection. Mechanical systems and signal processing 31, 246–257.
1171
1172
<div id="65"></div>
1173
[[#cite-65|[65]]] Tezerjani, A. D., Mehrandezh, M., Paranjape, R., 2014. 4-dof pose estimation of a pipe crawling robot using a collimated laser, a conic mirror, and a fish-eye camera. En: Image Analysis and Interpretation (SSIAI), 2014 IEEE Southwest Symposium on. IEEE, pp. 45–48.
1174
</div>
1175

Return to Cano-Rodriguez et al 2018a.

Back to Top

Document information

Published on 08/02/19
Accepted on 03/05/18
Submitted on 12/09/17

Volume 35, Issue 1, 2019
DOI: 10.23967/j.rimni.2018.06.001
Licence: CC BY-NC-SA license

Document Score

0

Views 447
Recommendations 0

Share this document