Lista Pública de Trabalhos Acadêmicos
Curso:
Todos (trabalhos mais recentes)
Ciência da Computação - Diurno
Ciência da Computação - Noturno
Engenharia Computacional
Licenciatura em Computação
Pós-Graduação em Modelagem Computacional
Sistemas de Informação
Pesquisar:
Ano:
Todos
2025
2024
2023
2022
2021
2020
2019
2018
2017
2016
2015
2014
2013
2012
2011
2010
2009
2008
2007
Filtrar
Permite filtrar a lista de TCCs com o curso, o termo e o ano
escolhidos. O termo pode ser, por exemplo:
Autor ou orientador;
Nome do TCC;
Palavra-chave;
Conteúdo dos resumos.
by-year
Trabalho
Autor
PDF
Extras
MODELAGEM FUZZY APLICADA A UM ALGORITMO DE OTIMIZAÇÃO POR COLôNIA DE FORMIGAS PARA A EXTRAÇÃO DE REGRAS DE CLASSIFICAÇÃO EM DADOS
Samira Cássia da Cruz Hodnefjell
Resumo
O algoritmo Ant-Miner, originalmente proposto por Parpinelli, Lopes e Freitas (2002a), aplica a metaheurística da otimização por colônia de formigas para a tarefa de classificação em mineração de dados. O presente trabalho aplica a modelagem fuzzy do comportamento forrageiro das formigas, proposto por Rozin e Margaliot (2007), ao algoritmo Ant-Miner admitindo duas possíveis interpretações e adicionando a elas elementos como a função heurística, presente no Ant-Miner original, e a técnica de priorização ao atributo utilizado, apresentada neste trabalho. Resultantes dessas adaptações, foram geradas 8 diferentes versões do algoritmo Ant-Miner que foram testadas e comparadas entre si e à versão original utilizando sete data sets de domínio público. Uma das versões apresentou resultados gerais superiores às outras, incluindo o algoritmo Ant-Miner original, em termos de acurácia preditiva em diferentes configurações do sistema.
Ano
2011
Orientador
Ilaim da Costa Júnior
Co-Orientador
Palavras-chave
mineração de dados, regras de classificação, metaheurística otimização por colônia de formigas, modelagem fuzzy
MODELAGEM DOS FENÔMENOS DE TRANSPORTE TERMO-HÍDRICO EM MEIOS POROSOS SUBMETIDOS A TEMPERATURAS ELEVADAS: APLICAÇÃO A UMA BICAMADA ROCHA-CONCRETO
Anna Paula Guida Ferreira
Resumo
O concreto é um meio extremamente complexo, cujas propriedades ainda não são totalmente compreendidas. As dificuldades encontradas na descrição e previsão do comportamento de estruturas de concreto devem-se a aspectos relacionados à heterogeneidade do meio - que é poroso e multifásico - podendo conter em seu interior fluidos na forma líquida e gasosa. Quando exposto a condições de temperatura elevada, tais dificuldades são ainda maiores, devido à ocorrência de fenômenos físicos e químicos, que alteram a estrutura porosa e as propriedades do meio. Como a reação de hidratação do cimento é reversível e termoativada, a exposição do concreto a temperaturas elevadas pode ter efeitos deletérios, com a ocorrência de desidratação da matriz a base de cimento, fissuração devido a pressões internas geradas pela evaporação da água de amassamento remanescente da mistura e ao desplacamento superficial (“spalling”). Este trabalho consiste no estudo do comportamento termo-hídrico de estruturas compostas por bicamadas rocha-concreto - comumente encontradas em túneis e repositórios subterrâneos. Foi desenvolvido um programa experimental consistindo em analises térmicas no qual corpos-de-prova bicamada feitos com dois tipos de concreto - convencional e de alto desempenho - foram submetidos a temperaturas de até 750?C. Tais ensaios forneceram dados para a implementação de um modelo termo-hídrico desenvolvido no código Cast3m - que foi empregado para simular os mesmos experimentos desenvolvidos em laboratório. Os resultados numéricos permitem avaliar a qualidade do modelo proposto, e servem de base para futuros desenvolvimentos que levem em conta o acoplamento termo-hidromecânico na descrição do comportamento do material.
Ano
2011
Orientador
Michèle Cristina Resende Farage
Co-Orientador
Flávio de Souza Barbosa
Palavras-chave
ALGORITMOS GENÉTICOS PARA OTIMIZAÇÃO DE ESTRUTURAS RETICULADAS BASEADAS EM MODELOS ADAPTATIVOS E LAGRANGEANO AUMENTADO
Francilene Barbosa dos Santos Silva
Resumo
Estratégias de penalização são muito utilizadas no trato de problemas com restrições. Problemas inerentes a escolha de valores adequados para os termos de penalização dificultam a obtenção de resultados confiáveis e robustos na sua aplicação em problemas da otimização estrutural. Técnicas baseadas em modelos de penalização adaptativa tem apresentado relativo sucesso quando aplicadas em conjunto com algoritmos evolucionistas. Apresenta-se aqui uma nova alternativa utilizando uma estratégia de lagrangeano aumentado para o trato das restrições do problema de otimização estrutural. Encontra-se na literatura modelos para penalização adaptativa bem como o uso do lagrangeano aumentado em conjunto com algoritmos genéticos geracionais. O objetivo desse trabalho é adaptar um modelo de penalização para um algoritmo genético não geracional, bem como criar um algoritmo baseado em lagrangeano aumentado também para o algoritmo não-geracional. Esses algoritmos foram aplicados em estruturas reticuladas, muito utilizadas na construção civil como coberturas de ginásios, hangares, galpões, etc. O desempenho desses tipos de estruturas e funções matemáticas foi analisado com as técnicas de tratamento de restrição apresentadas nesse trabalho. Isso foi feito durante a busca de soluções ótimas na tentativa de minimizar os custos e satisfazer as restrições adequadas para diversas estruturas e funções matemáticas.
Ano
2011
Orientador
Carlos Cristiano Hasenclever Borges
Co-Orientador
Afonso Celso de Castro Lemonge
Palavras-chave
otimização com restrição. penalização. lagrangeano aumentado. algoritmos genéticos.
CONFIGURAÇÃO DE PERFIS DE ACESSO COM BASE NA DISPONIBILIZAÇÃO DE SERVIÇOS WEB
Adriano Reiné Bueno
Resumo
A segurança entre as aplicações tem ganhado cada vez mais importância nas grandes organizações. A implantação das políticas de segurança da informação dentro das empresas previne a ocorrência de fraudes, roubo de informação e outros danos causados pela falta de segurança entre os sistemas. Nesse contexto, grandes organizações necessitam desenvolver aplicações capazes de fornecer mecanismos para o controle de nível de acesso entre sistemas heterogêneos e distribuídos. Este trabalho tem como objetivo a implementação de um middleware para autenticação e controle de acesso responsável por disponibilizar, por meio de serviços, os níveis de acesso de cada usuário no momento da autenticação no sistema. Utilizando o controle de acesso baseado em papeis, tecnicas de integraçao de sistemas, webservices e arquitetura orientada a serviços podemos disponibilizar arquivos de fácil manipulação como o XML ou JSON para representar os níveis de acesso de um usuário. De acordo com as políticas de segurança da informação da empresa, será definido um padrão de representação do controle de acesso e as aplicaçoes conhecendo esse padrão, podem fazer o controle de acesso do usuário.
Ano
2011
Orientador
Evaldo de Oliveira da Silva
Co-Orientador
Palavras-chave
Políticas de segurança da informação, controle de acesso baseado em papéis, serviços, middleware
MÉTODOS NUMÉRICOS PARA A SOLUÇÃO DE ESCOAMENTOS BIFÁSICOS DE FLUIDOS INCOMPRESSÍVEIS EM MEIOS POROSOS.
Gustavo Miranda Teixeira
Resumo
A Simulação de Reservatórios é uma importante área da engenharia de reservatórios. Simuladores são baseados em modelos matemáticos que modelam o escoamento dos fluidos através do meio porosos. Modelos água-óleo incompressíveis são representados por sistemas de equações diferenciais parciais em duas variáveis: pressão e saturação dos fluidos. O problema consiste de um sistema de equações de difícil resolução e que exige o uso de métodos iterativos para aproximar a solução. Neste trabalho foi feita uma comparação entre métodos numéricos que aproximam a solução deste problema através uma abordagem acoplada, utilizando um método implícito e um esquema desacoplado. O sistema desacoplado utiliza um método implícito para obter a solução da equação da pressão, enquanto a solução da saturação é aproximada através dos métodos de Euler Explícito e BDF (Backward Differentiation Formulas). Para resolver as equações no espaço, os métodos de Kurganov-Tadmor e o Esquema Upwind foram utilizados. O Esquema Upwind é um método de primeira ordem, enquanto o Kurganov-Tadmor (KT) é um método central de segunda ordem. Testes foram realizados utilizando diferentes tipos de reservatórios e propriedades da rocha e do óleo. Os resultados foram comparados com soluções precisas para medir o erro numérico introduzido por cada método. Através dos resultados obtidos nesse trabalho foi possível comparar os métodos e observar que a solução através de um esquema desacoplado é mais vantajosa, principalmente ao utilizar o método BDF para resolver a equação da saturação no tempo. Comparando o esquema Upwind com o KT, verificamos que, como esperado, o KT é um método menos difusivo. Nosso trabalho sugere que o uso do método KT em associação com o BDF resulta em um método mais preciso. Por outro lado, o KT é computacionalmente mais custoso do que o Esquema Upwind. Contudo, para produzir resultados com erros numéricos semelhantes aos do KT, o método Upwind chega a ser mais de seis vezes mais lento.
Ano
2011
Orientador
Rodrigo Weber dos Santos
Co-Orientador
Palavras-chave
Meios Porosos. Kurganov-Tadmor. BDF. Escoamento Bifásico. IMPES.
COMPATIBILIZAÇÃO DE ONTOLOGIAS: UM ESTUDO COMPARATIVO DE FERRAMENTAS.
Isabella Pires Capobiango
Resumo
Com a evolução da Web para a Web Semântica, o uso de agentes de software vem aumentando, pois surge a necessidade de mecanismos que garantam a interoperabilidade entre aplicações, devido ao fato que as máquinas passam a processar as informações disponibilizadas. Os agentes de softwareprecisam de informações que os apoiam para então efetivamente colaborar, eles atuam em ambientes abertos e heterogêneos. A proposta mais comum para essas informações utilizadas pelos agentes de softwareé uso de ontologias. As ontologias objetivam representar conhecimento consensual entre pessoas e aplicações, permitindo o reuso e compartilhamento de informações. O problema passa a ser como compatibilizar diferentes ontologias de modo a garantir a comunicação entre agentes de software. Na literatura, esse problema é tratado como compatibilização de ontologias. Neste trabalho, apresentamos diferentes ferramentas para compatibilização de ontologias e realizamos testes em cada ferramenta para alguns pares definidos de ontologias com a finalidade de identificar diferenças e similaridades entre as abordagens de compatibilização adotadas por essas ferramentas.
Ano
2011
Orientador
JAIRO FRANCISCO DE SOUZA
Co-Orientador
Palavras-chave
Ontologias, Interoperabilidade, Teste de ferramentas
UTILIZANDO SIMULAÇÃO DE PROCESSOS PARA MODELAGEM TO-BE DE PROCESSOS DE NEGÓCIOS
Thiago Miranda do Couto
Resumo
Com o dinamismo sendo uma característica cada vez mais importante para empresas que buscam o sucesso, se faz necessário um meio de fácil entendimento e rápida aplicação para auxiliar na tomada de decisões. A simulaçao de processos vem, ao longo dos anos, demonstrando ser a solução mais eficaz para esse objetivo. Possibilitando prever, com um elevado nível de precisão, o resultado de uma modifição no processo ou na configuração de seus executantes. Esse trabalho utilizará de uma ferramenta BPM presente no mercado para realizar simulaçõees em um processo real, afim de identificar e propor melhorias.
Ano
2011
Orientador
JAIRO FRANCISCO DE SOUZA
Co-Orientador
Palavras-chave
BPM, Simulação de Processos de Negócio, Processos de Negócio, BPMS, Business Process Management
ÉTICA NA INFORMÁTICA: DISCIPLINA A DISTÂNCIA PARA GRADUAÇÃO EM COMPUTAÇÃO
Bruno Fernandes Guidine
Resumo
A irregularidade de ações que desenvolvem o compromisso ético durante o aprendizado profissional, transparece na falta de um posicionamento seguro, crítico e com responsabilidade social dos profissionais da área de computação. Este trabalho propõe a criação de uma disciplina a distância, denominada Ética na Informática, para apresentar aos estudantes de cursos de computação conteúdos sobre ética, ética profissional e cidadania, permitindo ao aluno o aprimoramento e a reflexão de questões éticas em meio a diferentes situações onde são empregados recursos tecnológicos. A ética é abordada desde sua conceituação histórica e geral, bem como sua especialização profissional em TI, focando, principalmente, a área de computação. A educação a distância é a modalidade utilizada no processo de ensino-aprendizagem da disciplina. A plataforma Moodle foi escolhida para disponibilizar a disciplina devido aos seus variados recursos e por ser amplamente utilizado pelas instituições públicas de ensino superior no país, com aprovação do MEC. A disciplina Ética na Informática contribui para que o aluno desenvolva uma atitude ética e pró-ativa em relação às conseqüências da sua atuação profissional.
Ano
2011
Orientador
Rita de Cássia Oliveira Estevam
Co-Orientador
Palavras-chave
XPERSEUS: UMA INTERFACE GRÁFICA PARA DETECÇÃO DE DIFERENÇAS ENTRE DOCUMENTOS XML
Rafael Barros Silva
Resumo
Documentos XML estão se tornando um padrão para publicação e transporte de dados via Web, sendo utilizados, por exemplo, para definir configurações e leiautes das aplicações. Na maioria das vezes, os arquivos XML são colocados juntos com arquivos de texto comuns e por terem uma estruturação própria, ou seja, uma linguagem de marcação comelementos e atributos formando as tags que são definidas pelo desenvolvedor, necessitam de um tratamento diferenciado no que se refere à mesclagem desses documentos. Diante disso, surge a necessidade de se desenvolver sistemas que controlem as versões desses arquivos através de ferramentas específicas de detecção de diferenças entre documentos XML, realizando um processo de mesclagem mais controlado e menos propício a erros. A meta deste trabalho é, inicialmente, a realização de um levantamento bibliográfico, seguido de uma pesquisa das principais ferramentas de comparação e visualização de diferenças dedocumentos XML disponíveis na literatura. Como objetivo principal, destaca-se a implementação de um protótipo que possa atender as necessidades iniciais dos desenvolvedores quanto à detecção de diferenças nos documentos XML.
Ano
2011
Orientador
ALESSANDREIA MARTA DE OLIVEIRA JULIO
Co-Orientador
Palavras-chave
XML Dados Semi-Estruturados Sistemas de Controle de Versão Detecção e Mesclagem de Documentos
COMPUTAÇÃO UBÍQUA APLICADA à SAÚDE
Marcos Marins da Silva Corrêa
Resumo
A Computação Ubíqua é um novo paradigma de computação, considerado o paradigma do século XXI. Ela propõe a alteração da computação pessoal tradicional, transformando o relacionamento entre pessoas e computadores. Seu princípio básico é a criação de ambientes saturados de artefatos eletrônicos integrados com usuário de maneira harmoniosa e imperceptível, com a finalidade de auxiliar as pessoas em suas atividades diárias. Um cenário como este, em que computadores detectam as necessidades dos usuários, pode ser de extrema utilidade no âmbito da saúde. Dessa forma, aumenta-se a segurança dos pacientes e evita-se o estresse e a sobrecarga de profissionais da área de saúde. Assim, este trabalho visa mostrar como a Computação Ubíqua pode ser aplicada na Saúde. O objetivo é mostrar um exemplo de aplicação pervasiva utilizando objetos eletrônicos já integrados ao atual moderno estilo de vida.
Ano
2011
Orientador
Marcelo Lobosco
Co-Orientador
Palavras-chave
Computação Ubíqua Computação móvel Assistência médica pervasiva
INTEROPERABILIDADE DE ONTOLOGIAS INTEGRAÇÃO NO DOMÍNIO DE EQUAÇÕES DIFERENCIAIS ORDINÁRIAS
Henrique Azevedo Cardoso
Resumo
O rápido crescimento da Web tem aumentado o número de fontes de conhecimento e quantidade de acesso ao seu conteúdo. A Web semântica surge nesse contexto apresentando uma forma de pesquisa, integração e processamento da informação para as máquinas. As ontologias vêm como solução para representar o domínio da informação e suas relações, e sua interoperabilidade possibilita a integração do conhecimento. Neste trabalho será apresentado o processo de desenvolvimento da ontologia ODEq e sua integração com outra do projeto MONET. As ontologias foram desenvolvidas usando a linguagem OWL.
Ano
2011
Orientador
Fernanda Cláudia Alves Campos
Co-Orientador
Palavras-chave
Semântica Ontologias Web
IDENTIFICAÇÃO POR RFID, SMART CARDS E CÓDIGO DE BARRAS
Paulo Bismark Barroso Machado
Resumo
Algumas tecnologias custam a ser assimiladas devido a uma resistência natural a mudanças de hábitos por parte das pessoas enquanto outras são facilmente incorporadas pela sociedade, passando a fazer parte das tarefas cotidianas da população. As tecnologias voltadas para a identificação também passam por este processo, gerando uma sensação de desconfiança inicial como uma reação natural à inovação tecnológica. Este trabalho tem por objetivo o estudo de tecnologias de identificação através de sua importância social. Contextualiza três tecnologias que revolucionam a forma como a sociedade realiza tarefas tais como: compra/venda, armazenamento e o transporte de produtos. Utilizam componentes de hardware e software que proporcionam segurança e precisão os quais impactam as atividades econômicas e sociais. A análise de aplicações da identificação por códigos de barras, radiofrequência, "Smart Cards" objetiva demonstrar que a evolução tecnológica compreende interseções e complementaridades entre estas tecnologias; de forma a tornar cada uma delas, a tecnologia certa para uma determinada tarefa. Características destas tecnologias as permitem atuar de forma combinada ou não, dependendo do tipo de aplicação e do grau de segurança desejado. Novas informações e perspectivas tecnológicas são apresentadas de forma a motivar o desenvolvimento de pesquisas nessa área de conhecimento.
Ano
2011
Orientador
CIRO DE BARROS BARBOSA
Co-Orientador
Palavras-chave
RFID, Smart Card, Código de Barras, Identificação
IMPLEMENTAÇÃO COMPUTACIONAL DE UM MODELO MATEMÁTICO DO SISTEMA IMUNE INATO
Alexandre Bittencourt Pigozzo
Resumo
O sistema imunológico humano (SIH) é composto por uma rede complexa de células, tecidos e órgãos especializados em defender o organismo contra doenças. Para atingir tal objetivo, o SIH identifica e extermina uma ampla gama de agentes patogênicos externos, como vírus e bactérias, além de células do próprio organismo que podem estar se comportando de forma anormal, e que poderiam dar origem a tumores, caso não fossem eliminadas. O SIH é ainda responsável pelo processo de eliminação de células mortas e renovação de algumas estruturas do organismo. A compreensão do SIH é, portanto, essencial. Entretanto a sua complexidade e a interação entre seus muitos componentes, nos mais diversos níveis, torna a tarefa extremamente complexa. Alguns de seus aspectos, no entanto, podem ser melhor compreendidos se modelados computacionalmente, permitindo a pesquisadores da área realizar um grande volume de experimentos e testar um grande número de hipóteses em um curto período de tempo. A longo prazo, pode-se vislumbrar um quadro onde todo o SIH poderá ser simulado, permitindo aos cientistas desenvolverem e testarem vacinas e medicamentos contra várias doenças, bem como contra a rejeição de órgãos e tecidos transplantados, diminuindo o uso de animais experimentais. Neste contexto, o presente trabalho visa implementar e simular computacionalmente um modelo matemático do SIH, sendo o objetivo principal reproduzir a dinâmica de uma resposta imune ao lipopolissacarídeo (LPS) em um pequena seção de um tecido. O modelo matemático é composto de um sistema de equações diferenciais parciais (EDPs) que incorpora a dinâmica de alguns tipos de células e moléculas do SIH durante uma resposta imune ao LPS no tecido.
Ano
2011
Orientador
Marcelo Lobosco
Co-Orientador
Rodrigo Weber dos Santos
Palavras-chave
Sistema inato. Inflamação aguda. Equações diferenciais parciais. Método das diferenças finitas.
MODELAGEM DA MICROESTRUTURA DE TECIDOS CARDÍACOS.
Caroline de Mendonça Costa
Resumo
Há algumas décadas atrás acreditava-se que o tecido cardíaco era contínuo e uniformemente conectado. Atualmente, sabe-se que as células do tecido cardíaco são conectadas umas às outras por canais especiais chamados junções gap, por onde há fluxo de corrente entre células vizinhas. Estas células por sua vez estão arranjadas em distintas camadas formando fibras de músculo cercadas por espaços extracelulares e tecido conectivo. A modelagem da eletrofisiologia cardíaca é uma importante ferramenta na compreensão de fenômenos cardíacos, como arritmias e outras doenças. Um dos modelos mais utilizados para descrever a atividade elétrica no coração é o modelo Monodomínio, no qual considera-se um tecido contínuo e uniformemente conectado obtido através da técnica de homogeneização. Em condições normais esta é uma aproximação adequada, uma vez que a influência da microestrutura do tecido não é tão evidente. Por outro lado, sabe-se que algumas condições patológicas alteram a conectividade do tecido, como em casos de infarto do miocárdio, onde é observada uma redução no acoplamento intercelular formando uma barreira parcial propagação elétrica e no caso de fibrose, onde é observado um aumento do tecido conectivo formando uma barreira total à propagação. Nestas circunstâncias, estudos mostram que o modelo Monodomínio não é capaz de reproduzir os efeitos destas barreiras microscópicas na propagação elétrica. Sendo assim, neste trabalho serão apresentadas algumas das limitações deste modelo em casos de acoplamento intercelular reduzido e também uma técnica numérica baseada no método dos elementos finitos para reproduzir barreiras microscópicas causadas pela presença de espaços extracelulares e tecido conectivo no tecido cardíaco.
Ano
2011
Orientador
Rodrigo Weber dos Santos
Co-Orientador
Palavras-chave
Modelagem da eletrofisiologia cardíaca. Equações diferenciais. Métodos numéricos. Métodos computacionais. Homogeneização.
IMPLEMENTAÇÕES SEQUENCIAL E PARALELA DE UM NOVO ALGORITMO PARA A SIMULAÇÃO DE ELEMENTOS E COMPOSTOS MAGNÉTICOS
Alessandra Matos Campos
Resumo
O fenômeno magnético é amplamente utilizado nos mais diversos dispositivos eletrônicos, de armazenamento de dados e de telecomunicações, dentre outros. O entendimento deste fenômeno é portanto de grande importância para dar suporte ao aperfeiçoamento e desenvolvimento de novas tecnologias. Uma das formas de melhorar a compreensão do fenômeno magnético é estudá-lo em escala atômica. Quando os átomos magnéticos se aproximam, interagem magneticamente, mesmo que submetidos a um campo magnético externo, e podem formar estruturas em escala nanométrica. Programas computacionais podem ser desenvolvidos com o objetivo de simular o comportamento de tais estruturas. Tais simuladores podem facilitar o estudo do magnetismo em escala nanométrica porque podem prover informações detalhadas sobre este fenômeno. Cientistas podem usar um simulador para criar e/ou modificar diferentes propriedades físicas de um sistema magnético; dados numéricos e visuais gerados pelo simulador podem ajudar na compreensão dos processos físicos associados com os fenômenos magnéticos. Entretanto, a execução de tais simulações é computacionalmente cara. A interação entre átomos ocorre de forma similar ao problema dos N corpos. Sua complexidade nos algoritmos tradicionais é O(N2), onde N é o número de spins, ou átomos, sendo simulados no sistema. Neste trabalho propomos um novo algoritmo capaz de reduzir substancialmente este custo computacional, o que permite que uma grande quantidade de spins possa ser simulada. Adicionalmente ferramentas e ambientes de computação paralela são empregados para que os custos em termos de tempo de computação possam ser ainda mais reduzidos.
Ano
2011
Orientador
Marcelo Lobosco
Co-Orientador
MARCELO BERNARDES VIEIRA
Palavras-chave
<< Anterior
<< Anterior
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
Próximo >>