Concluídos - 2009

Autores: Andre Barros Chagas De Oliveira & Rafael Moulin Leite

Orientador: Prof. Luiz Valter Brand Gomes

Resumo:
 
A constante evolução da Internet continua gerando mudanças não apenas na área tecnológica, mas também em setores da economia onde a percepção dos efeitos dessa mudança não é tão clara. Esta monografia tem como propósito apresentar e discutir tecnologias e termos que surgiram com o advento da Internet e atualmente interferem na economia e na sociedade. Para tanto, foram feitos estudos com o intuito de agregar material teórico, capaz de viabilizar a análise do plano de negócios de uma empresa voltada para o e-commerce, e que adota em sua política de trabalho um modelo moderno e inovador de colaboração. Fazendo o uso de modelos onde o usuário participa ativamente da produção e do consumo, pretende-se estudar e analisar os conceitos que envolvem grande parte da geração de novos modelos de negócios colaborativos, bem como seus fatos geradores e efeitos dentro dos padrões atuais de negócios. Através do estudo de caso, busca-se o entendimento dessas ideias aplicadas em conjunto e a percepção do impacto que este novo modelo propõe nos processos do dia a dia.

Autor: Fábio Xavier Guimarães

Orientador: Carlos Alberto de Jesus Martinhon

Resumo:

Autores: Bruno Da Costa Moreira & Giancarlo Vasconcelos Taveira Do Nascimento

Orientador: Prof. Esteban Walter Gonzalez Clua

Resumo:

A tecnologia Microsoft MultiPoint é comumente utilizada para softwares com o foco em e-learning, pois tem como propriedade principal a possibilidade do uso de vários mouses em um mesmo terminal, possibilitando que vários alunos interajam com o computador ao mesmo tempo. Este projeto visa utilizar essa tecnologia de propriedade muito interessante de outra forma. Nele foi criado um software multiusuário que auxilia na investigação comportamental de candidatos através da aplicação da técnica de dinâmica de grupo ecológica, que visa expor o candidato a um cenário diretamente ligado à prática do cargo para o qual ele está sendo selecionado.

Autor: André de Oliveira Melo

Orintador: Prof. DSc. Esteban Walter Gonzalez Clua

Resumo:

A computação gráfica de tempo real tem evoluído muito rapidamente nos últimos anos em grande parte devido ao acelerado aumento de performance das placas gráficas. Tal aumento acabou tornando as GPUs muito mais rápidas e eficientes que as CPUs para o desempenho de determinados tipos de aplicações. Isso vem tornando possível o uso em computação gráfica de tempo real de diversas técnicas antes consideradas inviáveis, como a geração procedural de modelos 3D. Este trabalho tem como objetivo aproveitar esse grande potencial das novas placas gráficas propondo um modelo de geração procedural em tempo real em GPU de árvores 3D através de L-systems (Lindemayer Systems). É também apresentada neste projeto uma implementação em geometry shaders utilizando OpenGL Shading Language do modelo proposto, além de testes, resultados e ideias de trabalhos futuros.

Autor: Raphael das Chagas Campos

Orientadora: Bianca Zadrozny

Resumo:

Esta monografia tem como objetivo apresentar um estudo sobre o conceito de Business Intelligence, mostrando sua importância dentro das empresas para ajudar os executivos na tomada de decisão. Um sistema de Business Intelligence envolve uma gama de tecnologias que serão estudadas ao longo desse trabalho. Além disto, é apresentado um estudo de caso mostrando a migração de uma aplicação feita em Java para o ambiente de Business Intelligence, abordando na prática como funciona esse conceito tão pouco difundido nas universidades.

Autores: Raphael Domingues Costa & Welisson Reich de Jesus

Orientador: Prof. José Raphael Bokehi

Resumo:

O tratamento da insuficiência cardíaca é uma das áreas da saúde que requer a integração de esforços de vários profissionais. Médicos, fisioterapeutas, enfermeiros e farmacêuticos vêm integrando um grupo multidisciplinar de acompanhamento ao paciente portador de Insuficiência Cardíaca Congestiva (ICC). Este trabalho pressupõe o compartilhamento de várias informações entre estes profissionais. Além disto, várias pesquisas vêm sendo desenvolvidas tomando por base as informações coletadas pelos diversos profissionais que acompanham o paciente com ICC. A inexistência de um sistema de informação que permita o registro adequado destas informações, bem como facilite sua recuperação e compartilhamento entre os diferentes usuários é uma das dificuldades enfrentadas por esta equipe. Neste projeto, propõe-se o desenvolvimento de um protótipo de sistema de informação voltado especificamente para o atendimento multidisciplinar em ICC, visando sua otimização e a facilitação da troca de informação entre o grupo multidisciplinar.  Espera-se que, com o uso dessa ferramenta, possam-se suprir estas dificuldades.

Autores: Gustavo Magno de Oliveira & Thiago Manoel de Oliveira Mendes

Orientadora: Profa Dra Rosângela Lopes Lima

Resumo:

A monografia trata de ambientes virtuais de aprendizagem e focaliza a ferramenta MOODLE, mostrando suas características técnicas e qualidades, como ferramenta de auxilio a cursos presenciais ministrados no curso de Ciência da Computação. É apresentado um estudo de caso para demonstrar a sua utilização em ambiente de ensino presencial.

Autor: Diego Moreira Guimarães

Orientador: Célio Vinicius Neves de Albuquerque

Resumo:

Guimarães, Diego Moreira. Análise de Falhas dos Principais Protocolos de Segurança de Redes Sem Fio Padrão IEEE 802.11. Niterói, 2009. 34 p. Trabalho de Conclusão de Curso – Instituto de Computação, Universidade Federal Fluminense. Redes Sem Fio estão sendo muito utilizadas e, com o aumento das vendas de computadores portáteis e celulares que suportam acesso à Internet, o número de usuários tende a aumentar ainda mais. Dentre os diversos padrões, destaca-se o IEEE 802.11, também conhecido como Wi-Fi. A ausência de um meio físico para a realizar a conexão entre os computadores traz diversas vantagens, como a mobilidade. Sem a necessidade cabos, qualquer dispositivo provido de uma placa de rede sem fio poderia se associar a um Ponto de Acesso, bastando apenas estar próximo dele. Para impedir usos indevidos, foram criados os protocolos de segurança que visam prover privacidade e controlar o acesso à rede. O primeiro a ser desenvolvido foi o WEP e, pouco tempo depois de sua criação, diversos estudos acusaram falhas graves em sua implementação. Surgiram então os protocolos WPA e WPA2 com o padrão 802.11i e, novamente, estudos que apontam falhas de segurança. Este projeto pretende, além de apresentar o padrão 802.11 e seus protocolos de segurança, analisar essas falhas, mostrar suas causas e apresentar resultados de testes utilizando a ferramenta Aircrack, a fim de demonstrar na prática a possibilidade da quebra de senha e, consequentemente, uso não permitido da rede sem fio. Através da pesquisa e da análise dos testes, busca-se descobrir o que deve ser feito para impedir que usuários não autorizados se conectem a rede.

Autor: Bruno Lorenzo Corrêa Torres

Orientadores: Alexandre Plastino e Luiz Henrique de Campos Merschmann

Resumo:

Seleção de atributos é uma tarefa de pré-processamento que visa identificar atributos relevantes à tarefa de classificação. Deste modo é possível reduzir o custo computacional da tarefa de classificação, remover ruídos presentes na base e melhorar a performance da classificação. Este trabalho visa avaliar uma abordagem lazy para a seleção de atributos. Nesta abordagem, somente no momento em que uma instância é submetida para ser classificada é feita a seleção dos atributos a serem utilizados na classificação. Assim, pode-se avaliar os valores dos atributos presentes na instância, o que pode contribuir para a identificação dos melhores atributos para uma instância em particular. Os resultados experimentais indicam que para bases com maior quantidade de classes a abordagem lazy apresenta melhores resultados que estratégias similares que seguem uma abordagem eager.

Autores: Daniel Edward Rose & Felipe de Oliveira Soares Pinto & Renato Lima Almeida

Orientador: Leonardo Cruz

Resumo:

Este trabalho apresenta um estudo sobre a Extração de Informação, mostrando sua importância na organização de informações não estruturadas, que crescem de maneira exponencial no mundo moderno, bem como seus diferentes métodos de implementação, tendo como foco principal a extração de referências bibliográficas em artigos científicos. Além disto, é proposto uma implementação de um sistema que realize esta tarefa.

Autores: Breno Mattos de Paula & Wagner Luiz Oliveira dos Santos

Orientador: Profº. Dr. Anselmo Antunes Montenegro

Resumo:

A computação gráfica é uma área da ciência da computação na qual técnica e criatividade são combinadas para produzir resultados impressionantes. Muitos dos avanços alcançados na computação gráfica podem ser aplicados em diferentes áreas como medicina, engenharia, ciências sociais e etc. Por exemplo, o uso de modelos 3D e cenas virtuais é cada vez mais comum em processos que visam facilitar o diagnóstico em exames médicos, a construção de prédios mais modernos, e a especificação de rotas de trânsito dos transportes públicos e etc. Muitas das atividades que envolvem a computação gráfica são praticamente impossíveis de serem realizadas sem a presença de um artista especialista em modelagem virtual. Por este mesmo motivo, muitos estudos têm sido feitos como objetivo de facilitar as tarefas executadas por artistas e desenvolvedores de games. O trabalho proposto tem como objetivo investigar formas de se criar modelos robustos e com desempenho aceitável, que possam ser adquiridos de referências reais, através de imagens obtidas de câmeras fotográficas comuns, da forma mais automatizada possível, com técnicas e implementações simples de serem entendidas, e com exemplos que mostram ser possível tal solução. Neste trabalho foi implementado um sistema capaz de demonstrar o uso da técnica de reconstrução volumétrica a partir de imagens. O sistema atualmente se restringe a imagens sintéticas. No entanto, é completamente viável o uso de imagens do mundo real, desde que previamente calibradas. Foram realizados experimentos que mostram a viabilidade e flexibilidade do uso desta técnica, como um mecanismo para a reconstrução de objetos 3D.

Autor: Alexandre Mondaini Calvão

Orientador: Profº. Dr. Professor Esteban Walter Gonzalez Clua

Resumo:

Este trabalho trata da geração de mapas fechados de maneira procedural, através do uso de funções de um agente e sua heurística, para a criação aleatória de mapas totalmente randômicos, a partir de parâmetros de entrada do usuário. Também são abordadas questões relativas à importância da geração de cenas de forma procedural, bem como sua aplicação no campo de jogos eletrônicos. Por último descreve-se o framework para criação de jogos em JAVA: JMonkey [JMONKEYENGINE 02, JAVA 05] e o seu papel para viabilizar a visualização dos mapas gerados, em uma forma tridimensional.

Autores: Priscila de Jesus Bonvini & Rafael Santos de Abreu

Resumo:

Atualmente, o grande volume de informações armazenadas em banco de dados de organizações vai além da capacidade dos tradicionais métodos de análise dos dados baseados em consultas, pois eles se tornaram insuficientes para analisar o conteúdo em relação a algum conhecimento implícito que pode estar contido na grande massa de dados. Devido a esse fato, a mineração de dados passou a ser um processo importante de pesquisa, pois ela provê técnicas e ferramentas capazes de nos auxiliar a analisar grandes quantidades de dados e extrair conhecimento encoberto pelos demais dados. Existem fontes de informação que geram dados de natureza intrinsecamente sequencial, ou seja, compostos de eventos discretos que possuem uma ordenação espacial ou temporal. Apesar de existirem diversos métodos eficientes para a mineração desse tipo de padrões, geralmente eles são restritos a problemas específicos e tem dificuldade em lidar com a grande diversidade dos dados, o que pode ocasionar a perda de algum conteúdo relevante na análise das informações envolvidas, já que os padrões sequenciais mais complexos são muitas vezes escondidos atrás de sequências. Sendo assim, no presente trabalho se propõe a implementação de processos de pós-processamento de Conjuntos de Padrões Sequenciais, obtidos de bases de dados nas quais seja conhecida a origem do domínio, com a finalidade de filtrar o referido conjunto.

Autor: Adrian Maciel Laubisch Muller

Orientador: Prof. Dr. Esteban Walter Gonzalez Clua

Resumo:

Laubisch, Adrian. Scrum4Games: Uma adaptação da metodologia Scrum para o desenvolvimento de projeto de Games. Niterói, 2009. 49 p. Trabalho de Conclusão de Curso – Instituto de Computação, Universidade Federal Fluminense. A industria de games supera hoje em faturamento a de cinema, o que demonstra a grande explosão que esta mídia teve em pouco tempo. O chamado entretenimento digital evoluiu de meros bits a complexas realidades em pouco mais de duas décadas, expandindo seu mercado e público alvo. Tal crescimento foi acompanhado invariavelmente pela evolução tecnológica, muitas vezes sendo o causador da mesma. Com o aumento da complexidade dos recursos à disposição, cresceu também a complexidade da execução dos projetos de games. Neste aspecto, dois pontos devem ser considerados: Um game é um projeto multidisciplinar e multimídia, envolvendo diversos tipos de profissionais e métodos; Em adição, um game também é um software, e segue os preceitos desta indústria. Uma vez que o sucesso do desenvolvimento de software está intimamente ligado à metodologia utilizada no mesmo, com o passar dos anos esta industria teve de se adaptar às crescente demandas de alterações de requisitos durante um projeto. Em resposta a isso, surgiram propostas como as metodologias ágeis. Por perceber que a industria de games também precisa de uma reformulação em suas metodologias, este trabalho partiu de estudos de caso e bibliográfico para criar uma adaptação de uma famosa metodologia ágil de software, o Scrum, para que pudesse ser aplicada em projetos de games.

Autora: Renata Lopez Marques

Orientador: Prof. Dr. Leonardo Gresta Paulino Murta

Resumo:

Lopez Marques, Renata. Uma Abordagem para Testes de Software na Área de Games. Niterói, 2009. 63 p. Trabalho de Conclusão de Curso – Instituto de Computação, Universidade Federal Fluminense. Consumidores estão sempre buscando qualidade em produtos ou serviços que compram. É essencial que um software supra as necessidades de um usuário, e é papel da equipe de desenvolvedores fazer com que, no final, o cliente fique satisfeito. Um software que não funciona ou que apresente defeitos não atende a esse requisito. Essa história não é diferente com um tipo de software em particular: Jogos Eletrônicos, ou Games. Essa indústria cresce assustadoramente com o passar do tempo no mundo todo, rendendo bilhões por ano. Com novas técnicas e softwares para desenvolvimento surgindo de tempos em tempos, empresas de games se tornam cada vez mais profissionais e especializadas em um produto de qualidade. Além disso, consumidores se tornam sempre mais exigentes, buscando um produto que apresente diferencial e inovação com relação aos lançados anteriormente. Produtos novos com qualidade inferior a produtos mais antigos são descartados. Portanto, para disputar com empresas fortes, é necessário, no mínimo, garantir um produto de qualidade. Para tentar minimizar o número de falhas em um software, entra em cena a equipe de Testes de Software, cujo papel é testar o sistema em toda fase de desenvolvimento, buscando erros e inconsistências que prejudicam a funcionalidade do sistema. Essa equipe é importante porque garante uma melhor qualidade do software antes da entrega e evita maiores prejuízos em supostas correções aos defeitos. Além disso, mantém uma boa imagem da empresa e da equipe de desenvolvimento. Em se falando da indústria de games, um tipo específico de equipe de testes atinge um alto nível de importância: Os Game Testers, pessoas cujo trabalho consiste em jogar o game a ser lançado e descobrir falhas de integração entre as áreas do desenvolvimento que põem em risco a integridade do produto. Esse trabalho mostra a importância dos testes na área de games, abordando uma nova estratégia com tarefas de testes realizadas pela equipe de desenvolvimento com a perspectiva de Game Testers, para ser aplicada na etapa de desenvolvimento de um game e minimizar os problemas que esta área oferece aos testes.

Autores: Rafael Carvalho Slobodian & Rodrigo Richa Campagnoli

Orientador: Esteban Walter Gonzalez Clua

Coorientador: Anselmo Antunes Montenegro

Resumo:

Neste trabalho é desenvolvida uma pesquisa para permitir utilizar o Wii™ Remote combinado com a extensão Wii Motion Plus™ para fazer o controle de uma simulação de um braço mecânico. Esta pesquisa consiste da tentativa de criar uma técnica mais intuitiva para controlar este tipo de dispositivo, ao combinar o monitoramento de orientação em tempo real do controle, obtido através da interpretação do sinal fornecido pelo giroscópio do Wii Motion Plus™, com informações de deslocamento obtidas através do pressionar de botões direcionais do Wii™ Remote, e aplicá-las no efetuador de um braço mecânico tridimensional através da técnica de cinemática inversa Cyclic Coordinate Descent (CCD). Os resultados obtidos para esta técnica foram bastante satisfatórios, com destaque para o monitoramento preciso em tempo real de três graus de liberdade de rotação. Além disto, como apêndice neste trabalho, é realizado um estudo para interpretar as informações fornecidas pelo acelerômetro do Wii Remote, na tentativa de fazer o monitoramento contínuo do deslocamento do dispositivo. Os resultados obtidos nesse estudo não foram suficientemente satisfatórios, entretanto abrem um precedente na pesquisa da integração de informações do giroscópio com o acelerômetro para criar uma técnica de tracking independente de marcadores fiduciais.

Autor: Gabriel Machado Vianna

Orientadores: Alexandre Plastino e Simone de Lima Martins

Resumo:

Dados um conjunto F de m potenciais instalações, um conjunto U de n clientes, o problema das p-medianas consiste em encontrar um subconjunto de F com p instalações tal que o custo de servir todos os clientes seja minimizado. A incorporação de técnicas de mineração de dados em heurísticas tem apresentado bons resultados na obtenção de melhores soluções e na aceleração do processo heurístico. Este trabalho tem por objetivo apresentar um módulo de mineração de dados em uma heurística híbrida desenvolvida para problema das p-medianas visando melhorar tanto a qualidade das soluções obtidas quanto o tempo de execução. Os resultados empíricos sobre instâncias da literatura evidenciam a melhora gerada pela incorporação da mineração de dados na heurística híbrida.

Autor: Marcello Willians Messina Ribeiro

Orientador: Prof. Mauricio Kischinhevsky, D.Sc.

Resumo:

Este trabalho tem por objetivo implementar um simulador de trânsito, utilizando a tecnologia JavaFX, capaz de reproduzir as principais situações vivenciadas no dia-a-dia do trânsito comum e que, ao mesmo tempo, possuísse uma interface agradável e atraente. Esse primeiro protótipo com fins educacionais consegue ser o ponto de partida dessa idéia. Este tema é interessante, pois os acidentes de trânsito fazem parte do cotidiano das cidades, pondo em risco a segurança das pessoas [13]. Ações educativas, principalmente com alvo no público infanto-juvenil, são a melhor maneira de conscientização para que tenhamos uma trânsito cada vez mais seguro no futuro. A tecnologia tem que ser usada em prol desse tipo de ação educacional e de cidadania. Esperamos que esse trabalho possa contribuir com tal objetivo [12].

Autores: André Luiz Jacuá Dias Tschaffon & Rafael de Araújo Martinho Pinheiro

Orientadora: Bianca Zadrozny

Resumo:

O câncer de mama é o segundo tipo de câncer mais mortal entre as mulheres, e sua rápida e eficaz identificação deve ocorrer para que os riscos à paciente sejam reduzidos. A identificação de áreas cancerígenas em mamogramas é, sabidamente, de grande dificuldade para o olho humano, mesmo para um médico experiente. Portanto, a tentativa de utilização de técnicas de inteligência artificial, como a aprendizagem supervisionada, tem um grande potencial de auxílio, podendo minimizar os riscos de erro neste procedimento. No ano de 2008, a ACM Special Interest Group on Knowledge Discovery and Data Mining organizou o KDD-CUP, campeonato anual de mineração de dados, tendo como tema o câncer de mama e tornou pública sua base de dados composta de diversas informações referentes a imagens de pacientes. Cada imagem contém regiões candidatas a possuírem tal doença. Uma característica importante dessa base é o desbalanceamento dos dados, isto é, o número de imagens com regiões cancerígenas é muito menor que o número de imagens sem regiões cancerígenas (numa proporção de x para y). Neste trabalho, utilizou-se a base de dados disponibilizada para a KDD-CUP e o software livre WEKA para testar a eficácia da técnica de aprendizagem Costing em combinação com três conhecidos algoritmos de mineração de dados: árvore de decisão, rede bayesiana e support vector machine (SVM). Com a utilização da técnica Costing, é possível atribuir custos diferentes a cada tipo de erro (falsos positivos ou falsos negativos) e assim tentar reduzir os efeitos do desbalanceamento de dados em nossos classificadores. Os resultados obtidos neste projeto comprovam que a utilização do Costing otimiza a acurácia das classificações geradas pelos algoritmos de aprendizagem automático. Através da medida AUC, verificou-se que as respostas fornecidas pelos algoritmos, em combinação com o Costing, tendem a ser mais corretas do que as respostas fornecidas pelos mesmos algoritmos sem a utilização de informações de custo. Para validar os resultados obtidos, tomou-se como base para comparação os resultados obtidos pela equipe vencedora [5] da competição KDD-CUP 2008. Dessa forma, pode-se verificar que com a utilização da técnica Costing é possível atingir resultados próximos aos encontrados pelos vencedores.