Lista Pública de Trabalhos Acadêmicos
Curso:
Todos (trabalhos mais recentes)
Ciência da Computação - Diurno
Ciência da Computação - Noturno
Engenharia Computacional
Licenciatura em Computação
Pós-Graduação em Modelagem Computacional
Sistemas de Informação
Pesquisar:
Ano:
Todos
2024
2023
2022
2021
2020
2019
2018
2017
2016
2015
2014
2013
2012
2011
2010
2009
2008
2007
Filtrar
Permite filtrar a lista de TCCs com o curso, o termo e o ano
escolhidos. O termo pode ser, por exemplo:
Autor ou orientador;
Nome do TCC;
Palavra-chave;
Conteúdo dos resumos.
by-year
Trabalho
Autor
PDF
Extras
APRESENTANDO OS HONEYPOTS: DEFINIÇÕES, CONCEITOS GERAIS E IMPLANTAÇÃO
Higor da Costa Oliveira
Resumo
Este trabalho tem como objetivo inicial apresentar as ameaças virtuais mais conhecidas a fim de facilitar o entendimento dos termos que são mais utilizados em toda a abordagem de honeypots. Posteriormente são apresentadas as definições e conceitos de honeypots, além de trazer conceitos mais avançados, como níveis de interação. Uma das motivações deste trabalho é mostrar as principais vantagens e desvantagens de se utilizar honeypots, e como podem ter importância na segurança dentro de uma organização. O principal foco deste trabalho, no entanto, será exemplificar, com uma implantação simples, como honeypots funcionam, mostrando a sua capacidade quanto ferramenta de segurança.
Ano
2009
Orientador
EDUARDO PAGANI JULIO
Co-Orientador
Palavras-chave
honeypot, segurança
DESENVOLVIMENTO DE APLICAÇÕES PARA TV DIGITAL: UM ESTUDO DE CASO
Ivan de Oliveira Rios
Resumo
Este trabalho tem por objetivo realizar um estudo do padrão brasileiro de TV Digital. Em especial, é apresentado o middleware Ginga, desenvolvido pela Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio). O trabalho também apresenta o módulo orientado a eventos NCLua, adaptação da linguagem Lua, também criada pela PUC-Rio. Por fim, uma aplicação que envolve conceitos de Ginga-NCL e NCLua é apresentada.
Ano
2009
Orientador
Marcelo Lobosco
Co-Orientador
Palavras-chave
Interatividade, Ginga-NCL e NCLua
PESQUISA E DESENVOLVIMENTO DE UMA INTERFACE MULTITOQUE
Ricardo da Silva Werneck
Resumo
Sistemas e Interfaces de Toque estão em evidência nas nossas vidas, desde celulares, terminais de auto-atendimentos de bancos, e computadores. Embora esta tecnologia esteja recebendo grande atenção atualmente, trata-se de uma pesquisa que já nos anos setenta apresentava resultados. Hoje, o grande nome que se lembra ao falarmos em Tela de Toque é o do aparelho celular iPhone, que deu origem a uma gama de outros aparelhos concorrentes e também a computadores pessoais. A interação intuitiva entre sistemas multitoque e o usuário é a grande motivação para o desenvolvimento de interfaces homem-máquina. A popularização das tecnologias multitoque ainda está por vir com o lançamento do Windows 7, que promete dar suporte a elas.
Ano
2009
Orientador
Jesuliana Nascimento Ulysses
Co-Orientador
Palavras-chave
Telas de Toque, Sistemas Multitoque, Interfaces Homem-Máquina
SISTEMAS DE PROCESSAMENTO DE IMAGENS E CLASSIFICAÇÃO DE ÁREAS DE INTERESSE EM MAMOGRAFIAS
Alexandre de Oliveira Pelinson
Resumo
Segundo o INCA (Instituto Nacional de Câncer) o número de casos novos de câncer de mama esperados para o Brasil em 2008 é de 49.400, com um risco estimado de 51 casos a cada 100 mil mulheres. Para mulheres de grupos populacionais considerados de risco elevado para câncer de mama (com história familiar de câncer de mama em parentes de primeiro grau) recomenda-se o exame clinico da mama e a mamografia, anualmente, a partir de 35 anos. Sendo assim, muitas pesquisas estão sendo desenvolvidas visando gerar e aperfeiçoar ferramentas Computer-Aided Diagnosis (CAD) ou Auxílio ao Diagnóstico por Computador que visam auxiliar o radiologista melhorando as imagens ou até mesmo oferecendo uma segunda opinião no diagnóstico de mamografias. Neste trabalho são relacionados alguns conceitos sobre o câncer, anatomia das mamas e métodos empregados para superar a complexidade do diagnóstico do câncer de mama. Para isso serão apresentadas definições relacionadas ao tratamento de imagens e ferramentas que permitem ao computador processar e calcular se em uma determinada mamografia apresenta ou não um tumor maligno e como essas ferramentas foram usadas no desenvolvimento alguns trabalhos de pesquisa. O objetivo do presente estudo é, portanto descrever e resumir métodos computacionais utilizados na análise de imagens de mamografia para auxiliar o diagnóstico do câncer de mama. Com a disseminação do uso da tecnologia de mamografias digitais, o uso dos CADs será simplificado uma vez que a aquisição das imagens será mais fácil.
Ano
2009
Orientador
Ilaim da Costa Júnior
Co-Orientador
Palavras-chave
ESTUDO DE CASO DO SISTEMA DE GESTÃO DE RECURSOS HUMANOS DA UNIVERSIDADE FEDERAL DE JUIZ DE FORA
Kimbow Ribeiro Clébicar
Resumo
Este trabalho apresenta aspectos de desenvolvimento de sistemas de informações voltados para web, através do estudo de tecnologias como Apache, PHP, XML, Javascript, CSS e Ajax que costumam fazer parte do pacote de utilidades em um nível mais baixo de desenvolvimento. O modelo de caso de uso é apresentado, bem como o seu diagrama, pois estes são pontos de ancoragem dos desenvolvedores para execução das tarefas de implementação. São abortados temas como o paradigma da orientação a objetos, padrões de projeto, modelos de dados e controle de versão, que são temas diretamente relacionada ao assunto e ajudam a ilustrar e compreender melhor certos aspectos do desenvolvimento. O framework de desenvolvimento de aplicações para web, MIOLO, é estudado quanto as suas características, e funcionamento das camadas, levando em consideração a sua aplicabilidade ao domínio de desenvolvimento, e a capacidade de afetar diretamente a qualidade do resultado final do sistema. Este trabalho também apresenta algumas funcionalidades do Sistema Integrado de Gestão Acadêmica na parte de Recursos Humanos da Universidade Federal de Juiz de Fora como, por exemplo, a geração de relatórios, gerência de dados pessoais e funcionais, controle de férias e licenças e afastamentos.
Ano
2009
Orientador
Ely Edison da Silva Matos
Co-Orientador
Palavras-chave
O PROCESSO DE ETL NA CONSTRUÇÃO DE CONHECIMENTO EM UMA APLICAÇÃO DE UMA EMPRESA SEGURADORA
Marcelo Augusto Souza da Costa
Resumo
Com o avanço da tecnologia, as bases de dados das empresas passaram a acumular grandes volumes de dados. Além deste problema tem, também, o problema de inconsistência dos dados e de descentralização de suas bases. Neste contexto surgem estratégias para auxiliar no processo de tomadas de decisão. Dentre essas estratégias, destacam-se o processo de KDD (Knowledge Discovery in Databases) e de DW (Data Warehouse). Para que o desenvolvimento do processo de KDD e do DW seja feito com sucesso é precisso realizar um tratamento nos dados das bases utilizadas. Este tratamento é conhecido como ETL (Extraction, Transformation and Load) e consiste em extrair os dados dos bancos de dados, realizar um processo de limpeza e transformação e, então, realizar a carga. Este é o foco principal deste trabalho, que além de apresentar os princiais conceitos de DW e KDD é feito um processo prático de ETL utilizando uma ferramenta própria para isto.
Ano
2009
Orientador
Tarcísio de Souza Lima
Co-Orientador
Palavras-chave
Data Warehouse, Knowledge Discovery in Databases, ETL
AVALIAÇÃO DE DESEMPENHO DE UMA APLICAÇÃO DO TIPO BAG-OF-TASKS UTILIZANDO O MIDDLEWARE OURGRID
Tiago Machado
Resumo
Grades computacionais são cada vez mais utilizadas para prover o poder de processamento necessário para aplições com grandes demandas computacionais. Um dos middlewares utilizados para a criação da infraestrutura de grades computacionais é o Our-Grid. O objetivo deste trabalho é avaliar a viabilidade de implantação do middleware em questão bem como avaliar seu desempenho. Para isto foi utilizada a aplicação Genecodis. Os resultados obtidos mostram a) a viabilidade do uso do OurGrid em grades computacionais, b) o overhead causado pela transferências de arquivos relacionados a execução e c) o tempo de execução de cada tarefa que forma o job de modo individual.
Ano
2009
Orientador
Marcelo Lobosco
Co-Orientador
Palavras-chave
ASTERISK E ALTA DISPONIBILIDADE
Winfred Kwabla Gbedemah
Resumo
Esta monografia analisa a telefonia voz sobre IP, uma tecnologia que permite fazer chamadas interurbanas e internacionais gratuitas com grande facilidade através da Internet em tempo real. Com o trabalho de Mark Spencer e Jim Dixon surge um software, o Asterisk, que roda em sistema operacional Linux oferecendo mais benefícios, com licença GPL, cujo custo tecnológico ficou bastante acessível a pequenas e médias empresas e ao usuário residencial. O estudo apresenta soluções e técnicas de Alta Disponibilidade utilizadas com o Asterisk, e um estudo de caso demonstrando como o software funciona, define e detalha sua história, tipos de licenciamento, seus benefícios, e sua arquitetura. O estudo de caso usa diversas ferramentas gratuitas para garantir a Alta Disponibilidade com o Asterisk, incorporado no MeucciBE, e o heartbeat que garante a disponibilidade dos servidores no caso de falha de algum deles. Apresenta-se o funcionamento do VoIP, diversos codecs de áudio e vídeo utilizados nesta tecnologia de telefonia, e também apresenta as suas arquiteturas que são utilizadas normalmente. O estudo explica a qualidade da voz na tecnologia VoIP, apresenta os principais meios de transmissão dos pacotes envolvidos na qualidade da voz, e os fatores que afetam sua qualidade, comparando os dois principais protocolos do VoIP, o SIP e o H.323, e detalhando os termos de complexidade, extensibilidade, escalabilidade e serviços. O estudo desenvolve o conceito de Alta Disponibilidade, cita os seus conceitos, tipos de disponibilidade e apresenta os métodos e técnicas a serem usados.
Ano
2009
Orientador
EDUARDO PAGANI JULIO
Co-Orientador
Palavras-chave
Asterisk Voz sobre IP Alta Disponibilidade Heartbeat Codec
SIMULAÇÃO COMPUTACIONAL DE NANOESTRUTURAS MAGNÉTICAS USANDO PARTICIONAMENTO ESPACIAL
João Paulo Peçanha Navarro de Oliveira
Resumo
O estudo da interação de spins em compostos e elementos magnéticos vem se mostrando uma importante área de pesquisa por permitir uma melhor compreensão das propriedades magnéticas da matéria. Uma das abordagens utilizadas neste estudo é o emprego de modelos físicos, que então são simulados computacionalmente. Contudo, existe uma natural complexidade na resolução numérica dos modelos físicos, relacionada principalmente com o número de elementos presentes na estrutura simulada. Esta complexidade nos leva a buscar soluções computacionais que auxiliem na redução do tempo de processamento gasto na simulação. Assim sendo, este trabalho apresenta um modelo físico que descreve o comportamento de uma classe especial de materiais magnéticos, os ferromagnéticos, e dois modelos computacionais paralelos. Esses modelos são baseados em múltiplos fluxos de execução e em memória compartilhada, usando o conceito de particionamento espacial do volume de simulação. Esta paralelização se mostra capaz de reduzir os custos associados aos cálculos relacionados a resolução numérica do modelo apresentado. Resultados preliminares indicam uma redução de até 44 vezes no tempo de execução, quando comparamos a versão sequencial do simulador com a sua versão paralela
Ano
2009
Orientador
MARCELO BERNARDES VIEIRA
Co-Orientador
Palavras-chave
Simulação Física, Compostos Ferromagnéticos, Particionamento Espacial, Paralelização, Threads
CRIPTOGRAFIA DE CURVAS ELÍPTICAS
Victor de Oliveira Matos
Resumo
Os sistemas criptográficos têm como base problemas matemáticos, que dado o elevado nível de trabalho na sua resolução tornam mais complexa sua quebra. É considerado um problema de elevado nivel de trabalho aquele que mesmo dispondo das mais modernas ferramentas computacionais e utilizando de algoritmos eficientes, leva um longo tempo para se chegar na resposta. A criptografia de curvas elípticas (ECC) é um sistema de chave pública, ou seja, cada um dos envolvidos na comunicação têm um par de chaves: uma pública e uma privada. A chave privada é de conhecimento apenas do dono, enquanto a chave pública é distribuída abertamente. Sistemas de chave pública, tendem a ser mais lentos, mas não exigem que um segredo seja compartilhado entre os envolvidos. A segurança do sistema de criptografia com curvas elípticas depende do nível de dificuldade da resolução do problema do logaritmo discreto da curva elíptica escolhida. Esse trabalho tem como objetivo principal a implementação dos algoritmos de assinatura digital DSA (que utiliza RSA) e o ECDSA (uma variante do DSA com curvas elípticas) que são padrões internacionais e os algoritmos de criptografia Blum-Goldwasser e EccElGamal. Com esses algoritmos pode-se fazer uma comparação entre o sistema RSA, padrão atual, com os sistemas de curvas elípticas, que está apontando agora como uma nova e eficiente opção.
Ano
2009
Orientador
EDUARDO PAGANI JULIO
Co-Orientador
Palavras-chave
Criptografia, ECC, Curvas Elípticas, ECDSA, ElGamal, DSA, RSA, BG
MODELAGEM DE NEGÓCIO: UMA INTRODUÇÃO E PRÁTICA
Vitor Hauck dos Santos
Resumo
Este trabalho apresenta uma visão geral da modelagem de negócio, um tema relativamente novo, mas que tem crescido em importância recentemente. Por ser novo, o tema ainda está em desenvolvimento, muitos padrões são recentes e existem aspectos de modelagem que não possuem padrões, sendo apoiados apenas por iniciativas individuais. Além de apresentar a modelagem de negócio e justificar sua importância, o trabalho descreve algumas das linguagens usadas para a construção de modelos de negócio, de forma breve e com exemplos, permitindo ao leitor ter conhecimento do que existe atualmente nessa área. Complementando esse estudo, é feita uma modelagem parcial da empresa júnior de informática da UFJF - Base Três.
Ano
2009
Orientador
Michel Heluey Fortuna
Co-Orientador
Palavras-chave
Modelagem de Negócio, Modelo de Processo de Negócio, BPMN, Gerência de Processo de Negócio
DESENVOLVIMENTO DE UM DETECTOR DE PORT SCANS
Bruno Petrato Bruck
Resumo
Com a rápida evolução dos meios de comunicação, assim como da Internet, surgiram muitas facilidades e comodidades. Mas novas ameaças, anteriormente não existentes, também se aproveitaram desta expansão, de forma ferramentas de segurança de redes se tornam necessárias não só em grandes empresas e organizações, mas também em computadores pessoais. Na maioria dos casos, um ataque ocorre após uma fase considerada como um pré-ataque, onde uma gama de informações a respeito da vítima é coletada a fim de definir o ponto certo de entrada no sistema. Nesta fase uma varredura de portas ou Port Scan é muito comum de ser realizada. Com isso uma detecção a esse nível pode ajudar a prevenir a rede de sofrer maiores danos. Sendo assim, a proposta deste trabalho reside justamente em realizar um estudo sobre as técnicas mais utilizadas assim como desenvolver uma aplicação capaz de detectar os mais comuns tipos de varreduras de portas através da análise das informações contidas nos pacotes que chegam à interface de rede e são capturados, podendo servir como uma forma de alertar os administradores de rede. A aplicação conta com uma serie de heurísticas que determinam um comportamento suspeito no tráfego e geram os alertas, sendo que em sistemas Linux ainda conta com um adicional, onde é capaz de utilizar o firewall IPTables para bloquear todo o tráfego referente ao endereço IP da máquina atacante. Outro diferencial implementado é a busca do país referente ao IP do atacante, utilizando uma base de dados pré-carregada para esta tarefa que relaciona uma faixa de IPs a um determinado país.
Ano
2009
Orientador
EDUARDO PAGANI JULIO
Co-Orientador
Palavras-chave
PortScan, detecção, ataque, alerta
ALGORITMO DE MARGEM INCREMENTAL PARA PROBLEMAS DE REGRESSÃO
Roberto Carlos Soares Nalon Pereira Souza
Resumo
O presente trabalho procura apresentar um novo algoritmo para solução de problemas de regressão, chamado de Algoritmo de Margem Incremental. Esse algoritmo utiliza uma única formulação baseada em um sistema de inequações, computa soluções equivalentes às soluções SV Regressor, não utiliza pacotes de programação linear ou não linear e garante sempre uma solução. Para tanto vale-se somente de uma estratégia de adaptação para o valor da margem, no caso da classificação, e do valor do raio do tubo, no caso da regressão, e a solução de um sistema de inequações. Inicialmente são apresentados conceitos fundamentais sobre a área de estudo, como conceitos básicos de classificação e regressão, o modelo perceptron e máquinas de vetores suporte. São apresentados também o modelo do perceptron de margem fixa e o algoritmo de margem incremental. Ao final são apresentados testes comparativos e uma proposta de exibilização da margem.
Ano
2009
Orientador
Raul Fonseca Neto
Co-Orientador
Palavras-chave
INFRAESTRUTURA PARA SIMULAÇÃO DE PROCESSOS DE SOFTWARE BASEADA EM METAMODELOS DE DINÂMICA DE SISTEMAS
Igor de Oliveira Knop
Resumo
Os resultados de projetos envolvendo desenvolvimento de software são melhores quando o gerente responsável possui uma certa experiência adquirida em projetos anteriores. Porém, é inviável para as instituições de ensino educar seus alunos criando projetos pilotos devido a problemas com a escala de tempo, custos e pessoal necessários. Uma alternativa para estudos de problemas que não podem ser reproduzidos dentro de uma escala viável é a modelagem. Este trabalho desenvolve uma infraestrutura computacional, independente de domínio, que serve como base para construção de aplicações que utilizam técnicas de modelagem e simulação. Esta infraestrutura é utilizada para estudos das causas e efeitos das dinâmicas encontradas em processos de desenvolvimento de software como nosso domínio de aplicação. O principal componente desta infraestrutura é a biblioteca JynaCore API, que implementa duas linguagens baseadas em Dinâmica de Sistemas para descrição dos modelos: os diagramas de estoque e fluxo e os metamodelos de Dinâmica de Sistemas. Como prova de conceito, um protótipo de simulador de uso geral é construído para realizar simulações com um conjunto de modelos encontrados na literatura sobre processos de software. Adicionalmente, apresentamos uma revisão das alternativas que permitem a modelagem de processos desenvolvimento de software em um computador e as bases teóricas para as duas linguagens de modelagem suportadas pela infraestrutura. A abordagem permite a construção de simuladores, modelos e cenários (variações de um modelo mais geral) onde os usuários das ferramentas podem experimentar diversas situações práticas em ambientes simulados.
Ano
2009
Orientador
CIRO DE BARROS BARBOSA
Co-Orientador
Paulo Roberto de Castro Villela
Palavras-chave
COMPARAÇÃO DE MÉTODOS DE OTIMIZAÇÃO PARA O PROBLEMA DE AJUSTE DE HISTÓRICO EM AMBIENTES PARALELOS
Carolina Ribeiro Xavier
Resumo
O processo de ajuste histórico tem como objetivo a determinação dos parâmetros de modelos de reservatório de petróleo. Uma vez ajustados, os modelos podem ser utilizados para a previsão do comportamento do reservatório. Este trabalho apresenta uma comparação de diferentes métodos de otimização para a solução deste problema. Métodos baseados em derivadas são comparados com um algoritmo genético. Em particular, compara-se os métodos: Levenberg-Marquardt, Quasi-Newton, Gradiente Conjugado não linear, máxima descida e algoritmo genético. Devido à grande demanda computacional deste problema a computação paralela foi amplamente utilizada. As comparações entre os algoritmos de otimização foram realizadas em um ambiente de computação paralela heterogêneo e os resultados preliminares são apresentados e discutidos.
Ano
2009
Orientador
Rodrigo Weber dos Santos
Co-Orientador
Palavras-chave
Método IMPES. Escoamento bifásico. Ajuste de Histórico. Computação paralela. Engenharia de Reservatórios.
<< Anterior
<< Anterior
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
Próximo >>