Horário | 3/9/2007 (Segunda) | 4/9/2007 (Terça) | 5/9/2007 (quarta) |
---|---|---|---|
9:30 - 11:00 | Abertura - Auditório Guarapuvu | ||
10:40 - 11:00 | Café | Café | |
11:00 - 12:00 | C1 - Auditório Guarapuvu | C2 - Sala Goiabera C7 - Sala Petúnia |
C4 - Sala Goiabera C10 - Sala Petúnia |
12:00 - 14:00 | Almoço | Almoço | Almoço |
14:00 - 16:00 | |||
16:00 - 16:20 | Café | Café | Café |
16:20 - 18:00 | C8 - Sala Petúnia C9 - Sala Goiabera |
C3 - Sala Goiabera C5 - Aud. Guarapuvu |
C11 - Aud. Guarapuvu C6 - Sala Goiabera |
Em breve divulgaremos os títulos e resumos das demais conferências.
Clóvis C. Gonzaga (UFSC)
Resumo: Há cento e cinquenta anos, Cauchy criou o vetor gradiente de uma função e descobriu que este vetor aponta na direção de máximo crescimento da função. Para reduzir o valor da função, tomou uma sequência de pequenos passos na direção oposta ao gradiente em cada ponto. Esse método tem outra interpretação: dado um ponto, constrói-se um modelo linear da função em torno do ponto e minimiza-se esse modelo linear em uma pequena bola em torno do ponto. De fato, Cauchy mostrou que a direção que minimiza o modelo linear da função em uma bola é justamente a direção oposta ao gradiente.
Aí se encontram, já no nascimento da disciplina, as duas linhas mestras de algoritmos de descida (algoritmos que a cada passo reduzem o valor da função): métodos que seguem a cada passo uma direção que faz ângulo obtuso com o gradiente e métodos que minimizam um modelo da função em uma região em torno do ponto. Nos primeiros, é necessário garantir que o passo ao longo da direção de descida seja longo suficiente para reduzir "bastante" a função, o que se faz com procedimentos de busca unidirecional. Nos segundos, é necessário garantir que o modelo seja confiável na região, o que se faz controlando o seu raio. Estes são conhecidos como "métodos de região de confiança".
A primeira parte da palestra é elementar, descrevendo esses algoritmos com uma matemática simples e muitos exemplos gráficos. Enunciamos então teoremas de convergência global, que afirmam que com funções continuamente diferenciáveis e passos bem calculados, as sequências geradas pelos algoritmos têm pontos de acumulação estacionários, isto é, com gradiente nulo. Mostramos exemplos de sequências convergentes e também contra-exemplos, em que há vários pontos de acumulação (todos obviamente satisfazendo a condição de gradiente nulo).
A segunda parte da palestra é mais especializada. Descrevemos os resultados existentes sobre a convergência das sequências geradas pelo algoritmo: no caso de funções convexas o método de Cauchy sempre converge para um ponto se a busca utilizada for a de Armijo, mas não se garante a convergência se a direção não for exatamente oposta ao gradiente. Para funções analíticas, os resultados de Lojasiewicz garantem a convergência de trajetórias limitadas, mostrando que as trajetórias têm comprimento finito, e esses resultados são estendidos para funções convexas não diferenciáveis sub-analíticas. Mostramos exemplos de funções não analíticas para as quais o método não converge ou converge com uma trajetória limitada de comprimento infinito. Para funções convexas não sub-analíticas (por exemplo, funções C∞), o problema de convergência ainda está aberto.
Sean McKee, University of Strathclyde
Abstract: This talk will be concerned principally with modelling three medical devices: a fluorescence capillary-fill device based on antibody/antigen technology, a catheter able to continuously monitor cardiac output and a drug eluting stent.
The first device is capable of detecting a particular disease provided the specific antibody produced by the human body is known. This specific antibody is affixed to a side wall of the device and a fluid sample from the patient is then entered. A biosensor is employed to determine if a chemical reaction has taken place or not. A major application of this device is as a pregnancy testing kit. (It is known that the hormone, human chorionic gonadotropin (hCG), is produced by the placenta during pregnancy and this is detectable in the urine within ten days of fertilisation.) The second device is a catheter with a small electric coil at its tip which allows blood to be heated one degree above blood temperature. The company involved could easily measure the power input required to maintain this temperature, but had no idea how to relate this to cardiac output – volumetric blood flow rate. The third project is at an early stage. An arterial stent is a metal scaffold to prevent ischemia (inadequate blood flow) caused by the growth of an atherosclerotic plaque inside an arterial wall. Atherosclerosis is the process during which this plaque, consisting of lipid and fibrous tissue, forms inside the arterial wall reducing the luminal area and hence the flood flow. The insertion of the stent can cause an inflammation: slow release drug eluting stents are endeavouring to overcome this. In addition to these three projects we shall briefly discuss the rheology of blood and how it might be properly modelled.
Steven Dufour (Ecole Polytechnique de Montreal)
Abstract: Free surface flows are a common occurrence in fluid mechanics. Many industrial processes involve the flow of several fluids, and therefore the evolution of the interfaces separating these fluids. For example, plastic foams are widely used in material forming processes for the manufacturing of various products such as acoustic and thermal insulation, packaging, and for lightweight vehicle parts, to give a few examples. The control of the size and of the distribution of the bubbles allows the minimization of the pressure drop required during the fabrication operation, and leads to better mechanical properties of the finished product through a uniform microstructure. The optimization of similar industrial processes is only possible using a detailed numerical study, in order to help reduce the current heavy reliance on empirical knowledge. But such a study brings important challenges to the elaboration of an accurate numerical strategy.
The main difficulty arising in the numerical modeling of free surface flows is to determine the precise location of each interface, which is a priori unknown. Free surface flow modeling strategies can be classified in two categories: Lagrangian and Eulerian. Lagrangian surface tracking makes the modeling of interfacial physics straightforward, and the representation of free surfaces under small deformations is accurate. Yet, the implementation of these methods is not trivial for complex flows. Eulerian surface capturing is better suited for modeling the evolution of free surfaces submitted to large deformations, and for modeling multiple interface flows. However, this strategy is known to be less accurate.
We propose a numerical strategy to make Eulerian free surface capturing competitive with Lagrangian interface tracking, with respect to the accurate modeling of free surface dynamics and interfacial physics, for the simulation of complex multifluid systems with drops or bubbles. The various components of this numerical strategy will be discussed, including the finite element discretizations, the free surface capturing techniques, mesh adaptivity, time integration schemes, the modeling of interfacial physics and the modeling of non-Newtonian fluids. Various free surface flow problems will be studied to illustrate the possibilities of the proposed methodology.
Osni Marques (Lawrence Berkeley National Laboratory)
Resumo: A solução da equação de Schroedinger para uma partícula associada ao cálculo de estruturas eletrônicas frequentemente requer a obtenção de valores próprios (ou níveis de energia) interiores de um Hamiltoniano de grande dimensão. Os níveis de energia logo acima do "valence band" e logo abaixo do "conduction band" determinam o "band gap", o qual e relacionado a importante propriedades físicas, tais como propriedades ópticas do material.
De forma a evitar a custosa determinação de todos os níveis de energia até o "band gap", o "folded spectrum method" tem sido usualmente utilizado para o cálculo dos níveis de energia próximos do "band gap". Este método transforma o problema original em um problema auxiliar, no qual todos os valores próprios são positivos, e para o qual devem ser obtidos os menores autovalores. Esta apresentação faz uma comparação entre técnicas de minimização (gradientes conjugados) e outros algorítmos (baseados em subespaços de Krylov) para o cálculo de valores próprios utilizando-se o "folded spectrum method", bem como estratégias alternativas.
Paulo Vasconcelos (Universidade do Porto)
Abstract: This presentation deals with the numerical approximation of the solution of a radiative transfer equation for modeling the emission of photons in stellar atmospheres.
The problem is formulated in terms of a weakly singular Fredholm integral equation defined on a Banach space and the numerical approximation is based on a sequence of piecewise constant projections along the common annihilator of the corresponding local means.
Computational approaches to solve the problem are discussed, using direct and iterative strategies that are implemented in open source packages. In order to produce high precision solutions without solving large scale linear systems, we also develop iterative refinement techniques of a low order approximation.
José Mario Martínez (UNICAMP)
Resumo: A Otimização Numérica moderna tem três vértices: Teoria, Algoritmos e Aplicações.
Nesta palestra estabeleceremos conexões entre esses três aspectos. Procuraremos colocar critérios para balancear teoria de convergência e experimentação numérica na apreciação da potencialidade de um algoritmo. A ênfase será em programação não-linear de grande porte.
Clóvis R. Maliska (UFSC)
Abstract: Numerical simulation of fluid flow problems is becoming a powerful tool for better designing engineering devices. Due to the fantastic increase in computer power, these tools can nowadays be run even in laptops, helping all levels of engineering design. This work will discuss the EbFVM, the Element-based Finite Volume Method, a powerful numerical technique embodied in major simulators, showing recent developments of this method applied to the multiphase flow encountered in the oil industry.
Igor Mozolevski (UFSC)
Resumo: Os exemplos mais tradicionais de análise de problemas multifísicos (problemas cuja modelagem envolve modelos físicos diferentes em diferentes partes do domínio considerado) incluem problemas de acoplamento de equações (sistemas de equações) em derivadas parciais elípticas de ordens diferentes. Como exemplo, mencionamos o problema de acoplamento do sistema de equações de Navier - Stokes com a equação de Darcy, que aparece em problemas de simulação de reservatórios de petróleo. Outro exemplo tem sua origem na mecânica de estruturas, onde em modelagem de acoplamento de placas com membranas (típico para sistemas acústicos) aparecem problemas de acoplamento de equações de Kirchhoff ou Reissner-Mindlin com a equação da membrana.
Os métodos de decomposição de domínio são os métodos mais frequentemente usados na resolução numérica de problemas de acoplamento de equações em derivadas parciais de ordens diferentes. Por estes métodos, a solução do problema de acoplamento é reduzida ao sucessivo processo de solução de subproblemas de valores de fronteira locais alternando as condições de Dirichlet e Neumann na interface.
Nesta palestra será apresentada a teoria matemática de problemas de interface para equações elípticas de ordens diferentes. Consideremos a condição tipo Shapiro-Lopatinski para operadores de interface que assegura que o problema de acoplamento é bem posto e verificaremos que esta condição é satisfeita para os problemas multifísicos acima mencionados. Então, introduzimos a formulação de uma versão hp do método de elementos finitos de Galerkin descontínuo para resolução numérica do problema de acoplamento de equações elípticas de ordens diferentes e apresentamos a análise de convergência. Desenvolvemos também uma análise de estimativas a priori para o erro do método e apresentamos os resultados de simulações numéricas que confirmam as taxas de convergência teoricamente preditas.
Abimael Loula (LNCC)
Resumo: Apresenta-se um breve histórico sobre a formulação, análise e aplicações dos métodos de elementos finitos em problemas de mecânica dos sólidos e dos fluidos. Destacam-se as propriedades de consistência, estabilidade, convergência e melhor aproximação típicas das formulações clássicas baseadas no método de Galerkin. Comentam-se alguns casos patológicos de instabilidades, inconsistencias e poluição de algumas aproximações de Galerkin em problemas de estruturas delgadas, meios incompressiveis, convecção difusão e de ondas estacionárias. Discutem-se algumas técnicas de estabilização baseadas em formulações mistas, métodos de Petrov-Galerkin e de Galerkin Mínimos Quadrados.
Paulo Lyra (UFPE)
Resumo: A utilização de experimentos em laboratórios tem uma grande importância para o entendimento qualitativo e quantitativo dos fenômenos regidos por leis de conser-vação ou envolvendo acoplamento de diversas físicas e permitem levantar as pro-priedades dos materiais envolvidos. No entanto, simulações e previsões desejá-veis requerem um custo e tempo muito elevado e mesmo, em muitos casos, as características dos fenômenos envolvidos não podem ser reproduzidas em labora-tório. Aliada aos fatores mencionados, a análise em laboratório diversas vezes envolve experimentos de alto risco. O uso de modelos simplificados com ajustes via correlações empíricas tem sido vastamente empregado, porém estes se apli-cam às condições específicas para os quais foi adaptado, sendo, portanto, de uti-lidade limitada. O estágio de desenvolvimento alcançado pelos métodos numéri-cos de simulação, e computadores disponíveis na atualidade, possibilita o uso de modelos sofisticados, próximos da realidade, sendo esta alternativa cada vez mais utilizada e imprescindível na elaboração de projetos desafiadores que demandam novas tecnologias e prazos compatíveis com o ritmo da economia moderna. Ape-sar do grande progresso atingido, tem-se a necessidade sempre crescente de previsões mais realistas, precisas e em tempo real, o que tem sempre deixado algumas simulações desejáveis além da capacidade computacional disponível.
Na presente palestra, pretendemos inicialmente descrever o estudo de um caso onde a utilização da Mecânica Computacional (MEC) incorporando metodologias de Processamento de Alto Desempenho (PAD) foi imprescindível para viabilizar o projeto do carro supersônico, que bateu o recorde de velocidade de um veículo pilotado em terra e superou a velocidade do som no meio, atingindo número de Mach 1,02 em 15 de outubro de 1997 no deserto de Nevada-USA. Ao longo desta primeira etapa pretendemos motivar, ressaltar a importância, e introduzir alguns conceitos da "Mecânica" (ou melhor "Ciência") Computacional, particularmente em Dinâmica dos Fluidos Computacional (DFC) envolvendo Computação de Alto De-sempenho.
Apesar das vantagens que temos quando da utilização de formulações baseadas em malhas estruturadas no que concerne à facilidade de implementação e eficiência dos programas computacionais, a geração de modelos discretos de sistemas complexos, a grande dificuldade de se garantir uma boa qualidade da malha e a existência de um custo computacional adicional equivalente ao do uso de malhas não-estruturadas quando se implementa técnicas de adaptação de malhas, representam desvantagens consideráveis quando desejamos lidar com aplicações realistas desafiadoras. Por outro lado, a possibilidade de modelar problemas envolvendo fenômenos e geometrias complexas, com a incorporação de procedimentos de adaptação de malhas, se tornou realidade com o crescimento da capacidade computacional disponível levando a uma mudança na tendência de utilização de metodologias estruturadas para não-estruturadas nas últimas décadas numa vasta gama de aplicações. No entanto, o entusiasmo da comunidade acadêmica nem sempre tem sido compartilhada pela comunidade industrial, uma vez que metodologias não-estruturadas apresentam alguns aspectos negativos em termos de complexidade de implementação, de um custo computacional adicional, e um menor número de validações em algumas áreas. Vale ainda ressaltar que não interessando o quão flexível e inteligente é um algoritmo a sua vida útil e o interesse da indústria certamente dependerão do desempenho do mesmo em termos de impacto em projetos, manufaturas, controle ou tomada de decisão. Apesar dos inúmeros avanços alcançados, muito ainda tem que ser feito, tanto em termos de investigação e desenvolvimento de novas formulações e de algoritmos quanto em termos do desenvolvimento de ferramentas computacionais auxiliares, visando reduzir as desvantagens mencionadas quando da utilização de metodologias não-estruturadas.
Como segunda parte desta palestra, pretendemos apresentar brevemente alguns dos trabalhos de pesquisa que temos desenvolvido no nosso grupo de pesquisa, denominado PADMEC (Processamento de Alto Desempenho na Mecânica Com-putacional), fazendo uso de métodos integrais, tais como o Método dos Elementos Finitos (MEF) e o Método dos Volumes Finitos (MVF) na modelagem e simulação de algumas aplicações da DFC. Apresentaremos as principais etapas e desenvol-vimentos relativos à: formulação do método dos volumes finitos com estrutura de arestas centrada nos nós, e com volume de controle tipo "median dual" no estudo de problemas de transferência de calor e escoamento em meios porosos anisotró-picos e heterogêneos; formulação unificada e estabilizada do método dos elemen-tos finitos na simulação de escoamentos compressíveis e quase-incompressíveis e metodologia não monolítica e sistema computacional para a análise de proble-mas acoplados fluido-estrutura. Iremos ainda descrever brevemente diversas fer-ramentas auxiliares e alguns aspectos de implementação quando do uso de ma-lhas não-estruturadas, tais como: geração e adaptação de malhas, aceleração via técnicas de multigrid, estrutura de dados e implementação paralela em máquinas de memória distribuída tipo "cluster" de PCs.
Patrocinadores | ||||
---|---|---|---|---|
![]() |
![]() |
![]() |
![]() |
![]() |