En trabajos previos la localización no lineal fue presentada y estudiada para casos de grandes desplazamientos pero solo para problemas de estructuras con respuestas globales estables y resueltos de manera secuencial. En este trabajo se presenta la paralelización de esta estrategia de cálculo mediante el método Balancing Domain Decomposition by Constrains (BDD-C). Finalmente, se realiza una validación de la implementación en elasticidad lineal, mediante la comprobación del speed-up y la extensibilidad numérica.
Palabras clave: multiescala, método de descomposición, BDDC, paralelisación, cálculo no lineal.
In previous works, the nonlinear localization was first presented and studied in the case of large displacements but only for globally stable structural responses. In this paper, the parallelization of this computational strategy using a Balancing Domain Decomposition by Constrains (BDD-C) is presented. Finally, a validation of this implementation is carried out in lineal elasticity, verifying the speed-up and the numerical extensibility.
En estructuras aeronáuticas como fuselajes la mayor no linealidad que ocurre corresponde a pandeo localizado en elementos esbeltos. Durante los ensayos estructurales de certificación llevados a cabo en un fuselaje completo, se observa pandeo en la piel entre los rigidizadores. Al aumentar las cargas, estos fenómenos se pueden expandir y provocar redistribuciones de esfuerzos en la estructura. Para cargas normales de trabajo, estos fenómenos son reversibles, el material se mantiene dentro del rango lineal. De todas formas, pueden provocar concentraciones de esfuerzo alrededor de las bases de los rigidizadores que pueden ser el origen de daños locales conducentes a fallas completas de las estructuras. Realizar cálculos de estos fenómenos para grandes estructuras como un fuselaje completo, conlleva mallas con aprox. grados de libertad (g.d.l.), incluso con mallas adaptadas. Debido al gran número de incógnitas y a las limitaciones tanto de memoria como de los procesadores, la resolución directa de este tipo de problemas mediante el Método de Elementos Finitos (MEF) es impracticable. Es por esta razón, que los ingenieros usan métodos de aproximación basados en super-elementos (condensación lineal de g.d.l. internos) o análisis global-local, que corresponden a un cálculo lineal global de toda la estructura seguido de análisis locales no lineales. Si bien estos métodos permiten realizar ciertos cálculos, no toman en cuenta fenómenos como redistribuciones de esfuerzos o expansión de zonas con no linealidades, debido a que solo ofrecen un diálogo en una sola dirección debido a las escalas introducidas. Como resultado, solo pueden tratar no linealidades localizadas que no tengan una influencia en la respuesta global de la estructura. Nuevos avances, utilizando máquinas en paralelo y cluster, nos permiten hoy en día distribuir el costo computacional y requerimientos de memoria en varios procesadores. Problemas muy complejos son abordables siempre que los métodos de resolución puedan tomar ventaja del paralelismo inherente de los hardwares disponibles. En este estudio, se exploran las posibilidades relacionadas con estrategias de cálculo en paralelo y multiescala en el contexto de problemas no lineales geométricamente.
En este trabajo se presenta la paralelización de una estrategia de cálculo basada en el método de descomposición de dominio llamado Newton-Krylov-Schur (NKS) [1,2], el cual es uno de los métodos paralelos de referencia para la resolución de problemas no lineales para el caso del post-pandeo. Este método NKS se ha modificado integrando una etapa de localización no lineal [3], además de introducir una descomposición de dominio mixta. Esta etapa de localización no lineal consiste en realizar iteraciones adicionales en los subdominios después de cada iteración global de manera de obtener el comportamiento no lineal y el equilibrio en ellos. En trabajos anteriores [3,4,5] se ha demostrado la eficacia de esta estrategia de cálculo para problemas con no linealidades locales y desbalanceadas. En una primera parte, se presenta la estrategia de localización no lineal, para luego en una segunda parte, presentar la paralelización de la estrategia mediante un método BDDC [6] junto con una validación de la misma en el caso de elasticidad lineal.
Los métodos de descomposición de dominio (MDD) [7] permiten resolver grandes problemas en computadores paralelos. Existen diferentes MDD dependiendo de las condiciones que transmiten entre los subdominios. Los métodos primales [8,9] favorecen la continuidad de desplazamientos mientras que los métodos duales [10] favorecen a-priori el equilibrio de fuerzas entre los subdominios. Los métodos mixtos [11,12,13,14] utilizan relaciones de tipo Robin entre los desplazamientos y fuerzas en las interfaces, sin favorecer a ninguno de los dos. Cuando los MDD son utilizados con el procedimiento iterativo de Newton para resolver problemas no lineales, estas estrategias se llaman métodos NKS [1]. Estos métodos se basan en:
Figura 1: Método NKS clásico. |
Figura 2: Método NKS con etapa de localización no lineal. |
Dos clases de MDD mixto se pueden encontrar en la literatura: Uno basado en la introducción de condiciones mixtas mediante una formulación Lagrangiana aumentada, que asume la existencia de un potencial para la energía de deformación. Tres campos de interfaces son introducidos: la traza en las interfaces del desplazamiento de los subdominios, el multiplicador de Lagrange y un desplazamiento de interfaz adicional [13,19]. En la otra clase, se introducen algoritmos con dos direcciones de búsqueda, sin recurrir a los multiplicadores de Lagrange. Dos juegos de interfaces son introducidas: las fuerzas y los desplazamientos de las interfaces. Ambas cumpliendo un rol simétrico [20]. Los MDD basados en el método LATIN [21] corresponden a este tipo de métodos. También se pueden mencionar los trabajos de [12] que propuso un algoritmo con dos direcciones de búsqueda, versión ALG3 [20].
La primera etapa consiste en encontrar los campos de fuerzas y desplazamiento y para cada subdominio que verifiquen el comportamiento no lineal y las condiciones de contorno mixtas, conociendo las fuerzas (equilibradas) y los desplazamientos (continuos en las interfaces) de la etapa lineal global (vea sección 3.1.2) precedente resuelta en las interfaces (o una etapa de inicialización):
|
donde es la parte correspondiente a los grados de libertad (g.d.l.) internos del vector fuerza que soporta el subdominio , son las cargas externas, a los desplazamientos impuestos, condiciones de contorno, es el parámetro de tipo Robin que corresponde a una dirección de búsqueda y el subíndice a los nodos de interfaz de cada subdominio. La ecuación 3 corresponde a una condición de tipo Robin. Las variables en mayúscula se refieren a cantidades de interfaz que son conocidas (vea sección 3.1.2).
Linearizando la ecuación 1 con la 3 se obtiene el siguiente problema tangente por subdominio:
|
(4) |
donde el subíndice referencia los g.d.l. interiores de los subdominios, representa la matriz tangente del subdominio , es un incremento de desplazamientos, es un residuo y es el salto de desplazamientos entre la interfaz y el subdominio (al tratarse de un método mixto, las interfaces y los subdominios pueden estar separadas durante el proceso iterativo). Las condiciones de contorno, son tomadas en cuenta por medio de un método de eliminación directa.
El parámetro de tipo Robin, , es un parámetro del método. Este parámetro corresponde a un operador linear simétrico definido positivo y representa la rigidez de la vecindad del subdominio en cuestión. Normalmente, se define como parte del complemento de Schur primal de los subdominios vecinos asociados con los g.d.l. considerados en la interfaz del subdominio analizado, . Este operador se obtiene ensamblando las diferentes contribuciones de los subdominios vecinos en la interfaz considerada, cuando todos sus otras interfaces están empotradas. Para mayores detalles en cuanto a la definición, como en la influencia del parámetro Robin en el desempeño de la estrategia, el lector se puede referir a [4]. En [22], se demuestra que una buena elección del parámetro de tipo Robin es fundamental para obtener un método eficiente.
La segunda etapa consiste en asegurar la admisibilidad de las incógnitas de interfaz: equilibrio de fuerzas y continuidad de desplazamientos , además de transmitir la información mecánica a través de toda la estructura, de manera de asegurar la escalabilidad del algoritmo. Más precisamente, conociendo y (fuerzas y desplazamientos provenientes de la etapa local precedente, vea sección 3.1.1) o una etapa de inicialización, y deben verificar la continuidad de desplazamientos 5 y el equilibrio de fuerzas 6 para cada interfaz que conecta dos subdominios y :
|
En estas estrategias, se introducen las siguientes direcciones de búsquedas por interfaz:
|
donde , , y son conocidas. La elección de la dirección de búsqueda se basa en los trabajos de [3] en donde se utiliza para propagar información global entre los subdominios. Donde corresponde al complemento primal de Schur del subdominio , que conecta todos los g.d.l. del subdominio y se calcula:
|
(9) |
El problema mixto no lineal condensado que se obtiene desde el equilibrio de las interfaces se puede resolver con un Newton-Raphson. Luego de la linearización y utilizando una formulación en desplazamientos, se obtiene:
|
donde y corresponden al ensamblaje de los problemas condensados y los residuos de cada subdominio respectivamente, según:
|
donde corresponde al operador de ensamblaje, que conecta los g.d.l. de borde del subdominio con las incógnitas del problema global.
Esto implica la solución de problemas no lineales locales en cada subdominio para las cantidades de interfaz (, ) y para la condición de tipo Robin 3. Resolviendo el problema de interfaces global 10, se obtiene , que corresponde al incremento del desplazamiento en las interfaces 11. Las fuerzas balanceadas de las interfaces se obtienen a partir de la ecuación 12 cuando los desplazamientos son conocidos. Los problemas 11 y 12 pueden ser resueltos independientemente en cada subdominio. El sistema 10 puede ser resuelto de la misma manera que los métodos NKS clásicos, incluso utilizando los mismos precondicionadores y procedimientos iterativos. Para más detalles sobre la estrategia, el lector puede referirse a [4].
Las estrategia de localización no lineal, como los métodos NKS clásicos, están adaptados a la arquitectura en paralelo de las máquinas de computo modernas. El problema tangente de interfaz, etapa global, se puede resolver utilizando un procedimiento iterativo de Krylov que solo realiza productos matriz-vector. El intercambio de información entre subdominios es necesario a cada iteración. Por el contrario, la etapa no lineal, consiste en cálculos totalmente independientes en cada subdominio. Una implementación en paralelo clásica, consiste en asociar cada subdominio a un procesador distinto, por ejemplo en un Cluster. Algunos procesadores pueden requerir esperar un largo tiempo a que los otros terminen sus tareas. Estos tiempos de espera afectan le efectividad del método y, en general, se busca repartir de la mejor manera posible las tareas entre los distintos procesadores. Esta problemática ya ha sido tratada en la implementación de MDD clásicos. En estos casos la descomposición del dominio se hace de manera automática de forma de que cada problema local (factorización y resolución del sistema lineal) represente un costo de cálculo lo más uniforme posible; Esto se logra con algoritmos de particionamiento, por ejemplo METIS.
En el caso del presente trabajo, es mucho más difícil poder evaluar a-priori el costo de cálculos no lineales por subdominio, que dependen de los operadores, pero también del nivel de cargas externas sobre los subdominios. Una estimación posible consiste en considerar el número de iteraciones de la etapa no lineal precedente. De todas formas, este costo puede variar entre distintas iteraciones. En esos casos, se puede utilizar métodos de repartición dinámica. Utilizando un número inferior de procesadores que de subdominios puede facilitar esa tarea. Algunas alternativas a estos problemas han sido desarrolladas por [23,24].
El objetivo consiste en la paralelización completa del código de cálculo: paralización de todas las etapas y paralelización/distribución de los datos del problema. Para realizar la paralelización de los datos del problema, cada procesador debe almacenar solamente la información de sus subdominios. Esta paralelización permite reducir el uso de memoria, pero complejiza la comunicación entre los diferentes procesadores. De esta forma un subdominio debe acceder a la información que necesita de los subdominios vecinos (interfazz, direcciones de búsqueda, etc.). Para paralelizar el código, se utiliza la librería de cálculo en paralelo Open MPI, que permite una paralelización completa de cada etapa. Una lista de todas las funciones junto con sus descripciones se pueden encontrar en el sitio de Open MPI (www.open-mpi.org).
Los problemas locales, resueltos a la etapa de localización no lineal, son naturalmente paralelisables, debido a que no requieren comunicarse con ningún otro subdominio, ni interfaz durante su resolución. Para esta implementación se ha elegido como dirección de búsqueda el complemento de Schur del subdominio vecino. Este operador modifica la matriz durante la operación que genera un aumento del tiempo de cálculo para la primera iteración local. Para las iteraciones locales sucesivas, la estructura de la matriz no cambia, aunque la dirección de búsqueda cambie. De modo de disminuir el tiempo de cálculo de esta operación, la suma de las matrices se ha hecho directamente sobre la definición de la matriz , lo que ha disminuido el tiempo de cálculo en un . Una potencial mejora consiste en determinar a-priori el tamaño de esta matriz para asignar correctamente la memoria el inicio del cálculo.
La paralelización del problema global de interfaz se puede hacer de diferente formas. Una solución consiste en la utilización de librerías paralelas de resolución de sistemas lineares por ejemplo: MUMPS (MUltifrontal Massively Parallel Sparse direct Solver), HIPS (Hierarchical Iterative Parallel Solver), PaStiX (Parallel Sparse matriX package). El principal problema con estas librerías es que los resultados no son extensibles en función del número de procesadores. De todas formas estas librerías mantienen sus eficiencias para un número moderado de procesadores (del orden de 10 a 100), el speed-up se ve afectado para un número creciente de procesadores. Otra opción consiste en la utilización de procedimientos de solución paralelos de tipo BDD o FETI. Como el problema de interfaces está formulado en desplazamientos, el método BDD [9] será utilizado y mejorado con la implementación de un precondicionador de tipo BDDC (Balancing Domain Decomposition by Constraints) [6]. Las restricciones adicionales introducidas por el precondicionador corresponden a la continuidad de desplazamientos en los nodos esquina de los subdominios. El problema está escrito con una formulación corrotacional [25] lo que genera sistemas no simétricos, debido a lo cual se utiliza un algoritmo de tipo GMRES.
El residuo global consiste en ensamblar los residuos locales. El cálculo de los distintos residuos locales condensados se realiza en cada procesador, . Además se deben considerar los saltos de desplazamiento entre los subdominios . Finalmente se deben ensamblar todas estas contribuciones (ver ecuación 14).
El objetivo de este procedimiento es no realizar multiplicaciones entre matrices, si no productos matriz-vector. Para eso, es necesario construir dos matrices, y para poder realizar las siguientes operaciones por subdominio:
|
(15) |
Es necesario tener presente la multiplicidad de cada g.d.l. de interfaz. Los nodos compartidos por 2 subdominios tienen multiplicidad 2, los compartidos por 3 subdominios, tienen multiplicidad 3, etc. Antes de ensamblar, cada termino del vector debe ser dividido por la multiplicidad correspondiente.
Los saltos de desplazamiento entre los subdominios se obtiene mediante un procedimiento similar al anterior, en donde se utilizan las mismas dos matrices descritas para el residuo como también . El procedimiento consiste en realizar las siguientes multiplicaciones matriz-vector (de derecha a izquierda):
|
(16) |
Todas estas operaciones son independientes por subdominios, por lo tanto paralelizables. La etapa final consiste en ensamblar los distintos resultados locales condensados 14, mediante la función de Open MPI, la cual optimiza este procedimiento. Las tres matrices (, y ) son almacenadas, ya que son utilizadas iterativamente para resolver el sistema.
El método GMRES utilizado para resolver el problema global necesita la utilización de un precondicionador para ser eficaz. Para esta implementación se eligió el precondicionador del método BDDC [6,26]. El método BDDC es muy similar al método FETI-DP [27] ya que funciona como un método primal.
El método BDDC introduce restricciones suplementarias (continuidad de desplazamientos) en las esquinas de los subdominios durante la etapa de precondicionamiento. Este método es una respuesta a los problemas de pérdida de extensibilidad debido a las singularidades observadas en nodos esquina en problemas de placas. Desde un punto de vista práctico, las esquinas son definidas como puntos múltiples (nodos compartidos por varios subdominios). La selección de estos nodos esquina debe hacerse de manera de bloquear los movimientos y rotaciones de cuerpo rígido de cada subdominio.
El precondicionador se define como:
|
(17) |
donde
|
es una matriz diagonal por bloques que se construye a partir de las matrices de ponderaciones de cada subdominio,
|
la diagonal de cada matriz de ponderación, representa el reciproco de la multiplicidad de cada g.d.l. de interfaz. Se considera que estas matrices cumplen con,
|
(21) |
el operador se define como:
|
(22) |
donde es el ensamblaje de cada por subdominio. Se usa para obtener el desplazamiento de los nodos esquina desde el vector que contiene los desplazamientos de todos los nodos de interfaz.
corresponde al ensamblaje de los diferentes , y se obtiene para cada subdominio haciendo,
|
donde representa a los nodos internos del subdominio (nodos no pertenecientes a ninguna interfaz), son los nodos de interfaz que no son de nodos esquina y son los nodos esquina.
Finalmente, representa la respuesta de la interfaz cuando un nodo esquina () es cargado con una fuerza unitaria (desplazamiento o rotación) y todos los otros g.d.l. de los todos nodos esquinas están bloqueados (Figura 3a).
es ensamblado haciendo, . en 18 representa el desplazamiento de los nodos esquina, a su vez en 19 representa el desplazamiento del resto de los nodos de interfaz bajo la acción del residuo local ponderado (), mientras se mantienen los nodos esquina empotrados (Figura 3b).(a) Representación gráfica de . | (b) Representación gráfica de . |
Figura 3: Casos de carga analizados |
La ecuación 19 se puede escribir,
|
(23) |
Por último, en 19 corresponde a un multiplicador de Lagrange usado para imponer la continuidad entre los nodos esquina.
La implementación del método BDDC permite reducir, de manera importante, el número de iteraciones GMRES. En la sección siguiente, se presenta un estudio de validación de la implementación del BDDC en elasticidad lineal. En particular análisis de extensibilidad y speed-up.
(a) Placa en tracción y flexión en el plano. | (b) Placa en flexión fuera del plano. |
Figura 4: Casos de carga analizados |
(a) Placa en tracción y flexión en el plano. | (b) Placa en flexión fuera del plano. |
Figura 5: Estudio de extensibilidad. |
El speed-up de un algoritmo en paralelo se define como la relación entre la velocidad de un cálculo cuando se utiliza un solo procesador y cuando se utilizan procesadores para resolver un problema de tamaño fijo ( constante y variable). No todas las etapas son paralelizables, por lo que generalmente este número es inferior a y se define según la ley de Amdahl [29]:
|
(24) |
donde corresponde al tiempo de la parte paralelizable y a la parte secuencial, no paralelizable.
Para verificar el speed-up del método, se estudia el efecto del número de subdominios sobre el tiempo de cálculo total del problema. La malla de la estructura se deja fijo. A medida que el número de subdominios aumenta el tamaño del problema global aumenta, mientras que los problemas locales se reducen. La estructura analizada corresponde a la misma que para el estudio de extensibilidad (Figura 4a) pero solo para una carga de tracción solamente. En este estudio, tres niveles de refinamiento de malla se han analizado. Para cada cálculo, cada procesador se encarga de un solo subdominio. Los resultados del estudio, considerando los tres niveles de refinamiento, se presentan en la Figura 6. Se verifica, un speed-up muy cercano al óptimo al menos para valores de razonables (al aumentar el número de subdominios el valor de se aproxima a ). Se aprecia que para los tres casos de refinamiento existe un número óptimo de procesadores (subdominios) que da el mejor speed-up. Este número depende de la malla de la estructura (parámetro ). Para valores de , el speed-up está sobre la curva óptima. Por el contrario cuando , el speed-up se deteriora (se pasa más tiempo comunicando los procesos que resolviendo el problema).Figura 6: Estudio de Speed-up, placa en tracción. |
En este trabajo se ha paralelizado una estrategia de localización no lineal mixta, mediante un método de tipo BDD, resuelto con un procedimiento de tipo GMRES. Este procedimiento necesita muchas iteraciones del algoritmo GMRES, por lo que se incorpora un precondicionador de tipo BDDC. Posteriormente se ha validado esta implementación analizando en elasticidad lineal, la extensibilidad y el speed-up del método. Se ha constatado que las curvas de extensibilidad numérica tienen un comportamiento asintótico, similar al observado en Gosselet06 y Beirao10 para una placa en flexión. Para el speed-up, se constató que para diferentes tamaños de malla se obtienen valores máximos diferentes. Este valor máximo se debe a que la resolución del problema global se vuelve menos importante, en términos de tiempos de cálculos, por lo que no se gana nada al aumentar la paralelización (número de subdominios). Esto depende del tamaño del problema (número de g.d.l.). Finalmente, se deben utilizar relaciones de , que permiten asegurar la extensibilidad del método y un speed-up cercano al óptimo.
La investigación que han permitido obtener los resultados aquí presentados han recibido financiamiento de CONICYT, FONDECYT de Iniciación n11160108.
[1] De Roeck Y.H., Le Tallec P. and Vidrescu M. 1992. “A domain-decomposition solver for nonlinear elasticity”. Computer Methods in Applied Mechanics and Engineering 99: 187–207.
[2] Farhat C., Lesoinne M. and Pierson K. 2000. “A scalable dual-primal domain decomposition method”. Numerical Linear Algebra with application 7: 687–714.
[3] Cresta P., Allix O., Rey C. and Guinard, S. 2007. “Nonlinear localization strategies for domain decomposition methods: application to post-buckling analyses”. Computer Methods in Applied Mechanics and Engineering 196: 1436–1446.
[4] Hinojosa J., Allix O., Guidault P.-A. and Cresta P. 2014. “Domain decomposition methods with nonlinear localization for the buckling and post-buckling analyses of large structures”. Advances in Engineering Software 70: 13–24.
[5] Hinojosa J., Allix O., Guidault P.-A., Cresta Ph., and Saavedra K. 2017. “Mixed nonlinear localization strategy for the buckling and post-buckling analyses of structures: Parameter optimization and path following implementation”. Engineering Optimization 49(2): 269–289.
[6] Dohrmann C. R. 2003. “A preconditioner for substructuring based on constrained energy minimization”. SIAM Journal on Scientific Computing 25(1):246–258.
[7] Gosselet P. and Rey C. 2006. “Non-overlapping domain decomposition methods in structural mechanics”. Archives of Computational Methods in Engineering 13(4): 515–572.
[8] Le Tallec P., De Roeck Y.H. and Vidrascu M. 1991. “Domain decomposition methods for large linearly elliptic three-dimension problems”. Journal of Computational and Applied Mathematics 34(1): 93–117.
[9] Mandel J. 1993. “Balancing domain decomposition”. Communications in Applied Numerical Methods 9: 233–241.
[10] Farhat C. and Roux F.-X. 1991. “A method of finite element tearing and interconnecting and its parallel solution algorithm”. International Journal for Numerical Methods in Engineering 32: 1205–1227.
[11] Ladevèze P. 1985. ``Sur une famille d'algorithmes en mécanique des structures. Compte rendu de l'académie de Sciences 300(2): 41–4
[12] Glowinski R. and Le Tallec P. 1990. “Augmented Lagrangian interpretation of the non overlapping Schwarz alternating method”. in: Third International Symposium on Domain Decomposition Methods for Partial Differential Equations, SIAM 224–231.
[13] Series L., Feyel F. and Roux F.-X. 2003. “Une méthode de décomposition de domaine avec deux multiplicateurs de Lagrange, application au calcul des structures, cas du contact”. Actes du Sixieme Colloque National en Calcul des Structures 373–380.
[14] Pavarino L. F. and Widlund O. B. 2002. “Balancing Neumann-Neumann methods for incompressible Stokes equations”. Communications on Pure and Applied Mathematics 55(3): 302–335.
[15] Pebrel J., Rey C., and Gosselet P. 2008. “A nonlinear dual domain decomposition method: application to structural problems with damage”. International Journal for Multiscale Computational Engineering 6(3): 251–262.
[16] Allix O., Kerfriden P. and Gosselet P. 2010. “A relocalization technique for the multi scale computation of delamination in composite structures”. Computer Modeling in Engineering and Sciences 55: 271–292
[17] Saavedra K., Allix O. and Gosselet P. 2012. “On a multi scale strategy and its optimization for the simulation of combined delamination and buckling”. International Journal for Numerical Methods in Engineering 91(7): 772–798.
[18] Saavedra E., Saavedra K., Hinojosa J., Chandra Y., and Das R. 2016. “Multi-scale modeling of rolling shear failure in cross-laminated timber structures by homogeneisation and cohesive models”. International Journal of Solids and Structures 81: 219–232.
[19] Brezzi F. and Marini L.D. 2005. “The three-field formulation for elasticity problems”. GAMM Mitteilungen 28: 124–153.
[20] Fortin M. and Glowinski R. 1983. “Chapter1: Augmented Lagrangian Methods in Quadratic Programming, in: Fortin M. and Glowinski R. (Eds), Augmented Lagrangian Methods: Applications to the Numerical Solution of Boundary Value Problems”. Studies in Mathematics and Its Applications, Elsevier vol. 15: 1–46.
[21] Ladeveze P. 1999. “Nonlinear computational structural mechanics - New Approaches and Non-incremental Methods of Calculation”. Springer Verlarg, Berlin.
[22] Saavedra K., Allix O., Gosselet P., Hinojosa J., and Viard A. 2017. “An enhanced non-linear multi-scale strategy for the simulation of buckling and delamination on 3D composite plates”. Computer Methods in Applied Mechanics and Engineering 317: 952–969.
[23] Diekmann R., Monien B. and Preis R. 1997. “Load balancing strategies for distributed memory machines”. In Satz H., Karsch F. and Monien B. editors: Multi-Scale Phenomena and Their Simulation. World Scientific 255–266.
[24] Lottiaux R., Gallard P., Vallée G., Morin C. and Boissinot B. 2005. “Openmosix, openssi ans kerrighed: a comparative study”. In CCGRID'05: Proceedings of the Fifth IEEE International Symposiun on Cluster Computing and the Grip vol. 2: 1016–1023, Washington, DC, USA. IEEE Computer Society.
[25] Felippa C.A. and Haugen B. 2005. “A unified formulation of small-strain corotational finite elements: 1. Theory”. Computer Methods in Applied Mechanics and Engineering 194(21-24): 2285–2335.
[26] Mandel J., Dohrmann C. R., and Tezaur R. 2004. “An algebraic theory for primal and dual substructuring methods by constraints”. Applied Numerical Mathematics 54(2): 167–193. 6th IMACS.
[27] Farhat C., Lesoinne M., Le Tallec P., Pierson K., and Rixen D. 2001. “FETI-DP: A dual-primal unified FETI method - Part I: A faster alternative to the two-level FETI method”. International Journal for Numerical Methods in Engineering 50: 1523–1544.
[28] Beirão da Veiga L., Chinosi C., Lovadina C. and Pavarino L. F. 2010. “Robust BDDC preconditioners for Reissner-Mindlin plate bending problems and MITC elements”. SIAM J. Numerical Analysis 47(6): 4214–4238.
[29] Amdahl G. M. 1988. “Limits of expectation”. International Journal of High Performance Computing Applications 2: 88–94.
Published on 03/01/18
Accepted on 27/06/17
Submitted on 25/04/17
Volume 34, Issue 1, 2018
DOI: 10.23967/j.rimni.2017.7.004
Licence: CC BY-NC-SA license
Are you one of the authors of this document?