Agenda de defesas Agenda de defesas

Voltar

CIn promove defesa de tese e dissertações amanhã (30)

Os resumos dos trabalhos estão disponíveis aqui

O Programa de Pós-Graduação em Ciência da Computação (PPGCC) promove amanhã (30) a defesa de uma tese de doutorado e de quatro dissertações de mestrado. Às 13h, acontece no auditório do Centro de Informática (CIn) a defesa da tese “Um Modelo Multidimensional em Padrões de Grafo para Realizar Consultas Analíticas e Topológicas de Grafos Agregados”, de Paulo Orlando Vieira de Queiroz Sousa, que contou com orientação da professora Ana Carolina Brandão Salgado. A banca será formada pelos professores Valeria Cesário Times (UFPE/CIn), Fernando da Fonseca de Souza (UFPE/CIn), Robson do Nascimento Fidalgo (UFPE/CIn), Maria Luiza Machado Campos (UFRJ/Departamento de Ciência da Computação) e Carlos Eduardo Pires (UFCG/Departamento de Sistemas e Computação).

No mesmo dia acontece, às 8h30, no anfiteatro do CIn a defesa da dissertação “Modelo de Similaridade de texturas usando Redes Neurais Profundas” de Marcus Vinícius Silva Lacerda de Souza. A dissertação teve a orientação do professor Tsang Ing Ren, que também participará da banca avaliadora. Além dele também estarão os professores George Darmiton da Cunha Cavalcanti (UFPE/Centro de Informática) e Juliano Bandeira Lima (UFPE/Departamento de Eletrônica e Sistemas).

Às 9h, o auditório do centro recebe a defesa da dissertação “Planejamento de Utilização de Largura de Banda de Rede em SGBDs NOSQL” de Patrícia Dayana de Araújo Souza, com orientação do professor Eduardo Antônio Guimarães Tavares. Além do orientador também estarão presentes na banca os professores Paulo Romero Martins Maciel (UFPE/Centro de Informática) e Victor Antônio Ribeiro de Lira Cavalcanti (IFPE/Campus Garanhuns).

O estudante Francisco de Assis de Souza Rodrigues irá defender a dissertação “DeepNLPF: Um Framework para Integração de Análises Linguísticas e Anotação Semântica de Documentos Textuais”. A defesa será às 10h, na sala A014 do centro. A dissertação teve orientação de Robson do Nascimento Fidalgo e coorientação de Rinaldo José de Lima. Além de Robson do Nascimento a banca contará com os professores Patricia Cabral de Azevedo Restelli Tedesco (UFPE/CIn) e Vanilson André de Arruda Burégio (UFRPE/Deinfo).

Por fim, às 13h, na sala E113 do CIn, Reniê de Azevedo Delgado apresenta a dissertação “Aprendizagem de Comportamentos em Robôs Através de Aprendizagem por Reforço”. A dissertação contou com orientação do professor Hansenclever de França Bassani, que formará a banca ao lado dos professores Paulo Salgado Gomes de Mattos Neto (UFPE/CIn) e Bruno José Torres Fernandes  (UPE/Escola Politécnica).

Resumo 1

Muitos sistemas reais produzem dados em rede ou dados altamente interconectados, que podem ser representados em grafo. Os dados das redes de informação formam um componente crítico na infraestrutura da informação moderna, constituindo um grande volume de dados em grafo. A análise das redes de informações abrange diversas áreas, entre elas são destaques as tecnologias Olap e as análises associadas à estrutura (ou topologia) do grafo. Olap é uma tecnologia que permite a análise multidimensional e em vários níveis de granularidade, fornecendo visualizações de dados agregados com diferentes perspectivas. A combinação dos algoritmos de análise topológica do grafo com as tecnologias Olap está em evidência, corroborando com os estudos recentes na área de Grafo BI, ou Business Intelligence em grafo. Considerando esse cenário, definimos um modelo multidimensional em grafo para ser usado junto a um SGBDG (Sistemas Gerenciadores de Bancos de Dados em Grafos). Esse modelo permite analisar padrões em grafo por meio de consultas multidimensionais, combinando os algoritmos de análise em grafo e os operadores Olap para fornecer uma visualização multidimensional de grafos agregados. No desenvolvimento deste trabalho, implementamos um plugin para o SGBDG Neo4j que permite a produção de consultas multidimensionais analíticas e topológicas em padrões de grafo. Os resultados dessas consultas são representados visualmente, mostrando tanto valores agregados das medidas topológicas e analíticas, quanto a estrutura do grafo agregado.

Resumo 2

Classificar texturas envolve os processos de aprendizagem e reconhecimento, onde os modelos das classes de texturas são construídos e comparados com um conjunto de treinamento através de um método de classificação. Também compõe um importante papel nesse processo a fase de representação de textura. Nas últimas décadas, diversas técnicas de descrição de texturas foram propostas e os métodos de classificação e descrição são utilizados em combinação para a tarefa de análise textural. Contudo, dada a variação dos tipos de textura que existem, sempre que se tem um novo conjunto de dados é necessário que sejam executadas diversas técnicas para saber qual é a melhor dessas técnicas nesse novo conjunto de dados. Encontrar um descritor ou um conjunto de técnicas que seja eficiente para cada uma dessas novas bases pode ser um trabalho exaustivo. O objetivo dessa dissertação é propor uma metodologia baseada em Deep Metric Learning que consiga gerar, de maneira eficiente, um espaço que consiga representar as bases de dados de entrada através de suas similaridades e, com disso, analisar a relação dos métodos de descrição e classificação tem um desempenho semelhante entre essas bases que foram agrupadas como similares. Com isso, os resultados podem ser utilizados para predizer quais técnicas funcionam melhor em uma nova base de dados de entrada que seja desconhecida ao treinamento. Esse espaço foi gerado utilizando a metodologia Deep Metric Learning, aplicando uma rede profunda com uma função de perda Triplet Loss em bases de textura comumente utilizadas na literatura, onde já se sabe quais descritores funcionam melhor em cada uma das bases. Como resultado, o espaço aglomerou bases semelhantes e, ao introduzirmos uma base de dados desconhecida, essa base foi classificada com uma região do espaço onde ela possui maior similaridade. A análise revelou que bases semelhantes realmente possuem descritores de textura idênticos como técnicas de melhor desempenho. Os resultados que a rede profunda possui um bom desempenho quando é utilizada como métrica de similaridade de texturas e também mostra a possibilidade de agrupar bases como classes texturais.

Resumo 3

Os SGBDs Nosql vêm sendo, constantemente, objeto de estudo, por serem os mais adequados para trabalhar com excessivos volumes de dados e requisições, atendendo, assim, a demandas de grandes serviços como o Facebook, Google e o Big Data, principalmente por sua capacidade de crescer e se adaptar à carga recebida, o que para tal, faz uso, especialmente, da replicação. Embora a replicação seja importante para garantir a disponibilidade de dados, esse mecanismo implica uma sobrecarga para manter a consistência entre réplicas (cópias de dados) e uma sobrecarga da rede, em virtude de muitos acessos ao nó principal ou por concorrência de outras aplicações na largura de banda disponível, fazendo com que a propagação das réplicas seja interrompida ou que ocorram falhas de consistência na leitura dos nós secundários (como resultado de um failover automatizado). Nesse sentido, esta pesquisa propõe modelos baseados em Redes de Petri e uma analise experimental, com o objetivo de avaliar o desempenho de cluster NoSQL sob um link de rede para contribuir no planejamento da utilização de largura de banda. A partir da analise de alguns estudos, foi observado, também nesta pesquisa, que a abstração do paradigma SDN, especificamente a implementação de técnicas deQoS com Openflow para limitar ou priorizar o tráfego de um cluster de banco de dados, auxilia no desempenho da comunicação dos SGBDs, além da quantidade e taxa de chegada da carga recebida, da replicação, da concorrência por largura de banda, e do nível de consistência configurada para o banco.

Resumo 4

Atualmente, as empresas vêm implementando novos modelos de negócios que dependem intensamente do Processamento de Linguagem Natural (PLN) em documentos textuais a fim de extrair informações relevantes de diversas fontes, incluindo comércio eletrônico, documentos de domínio específicos, serviços públicos, mídias sociais etc. A implementação de um sistema de PLN requer, entre outras coisas, um considerável esforço de engenharia de software para: a criação de estruturas de dados para representação da linguagem humana; a aplicação de tais ferramentas no enriquecimento da representação textual através da análise linguística em diversos níveis (léxico, sintático e semântico); a leitura e interpretação das anotações geradas dos corpus, a criação de recursos linguísticos, entre outros. Embora existam atualmente inúmeras ferramentas de PLN amplamente utilizadas em tarefas de PLN, extração, anotação e correção linguísticas, cada uma delas fornece apenas cobertura parcial de tais análises e tarefas. Além disso, tais ferramentas são desenvolvidas em linguagens de programação distintas e são disponibilizadas sem nenhuma padronização na entrada e saída de dados, o que dificulta a sua interoperabilidade devido a incompatibilidade entre as APIs, formatos de dados de saída (representação) e a tokenização básica do texto, para citar algumas. Devido a isso, selecionar as ferramentas e suas respectivas análises linguísticas de acordo com o interesse de aplicação de um usuário requer normalmente muito tempo, principalmente quando se deseja usá-las em conjunto (integração de ferramentas). O objetivo deste trabalho é de analisar diversas ferramentas de PLN disponíveis na literatura e propor, implementar e avaliar uma nova arquitetura que encapsule diversas análises linguísticas em um só arcabouço (framework) computacional, permitindo assim que desenvolvedores de aplicações possam não somente executar pipelines de análises linguísticas que envolvam o tratamento aprofundado da língua inglesa, mas também uma fácil integração de diversas ferramentas de PLN. Além disso, visa-se fornecer uma interface gráfica (GUI) ao usuário que seja simples e intuitiva, porém detalhada, a fim de se explorar plenamente todos as análises linguísticas já disponíveis e as que possam ser facilmente incrementadas pelo próprio usuário posteriormente. Desta forma, as funcionalidades fornecidas pelo arcabouço proposto, DeepNLPF, intenta ajudar os desenvolvedores a realizar inúmeras análises em dados textuais com mais eficiência, guiando-os na escolha do melhor, mais adequado e eficiente pipeline de tarefas de análises linguísticas possível. A versão ora proposta do DeepNLPF é formada pela integração de várias ferramentas de PLN do estado da arte que foram selecionadas após uma revisão minuciosa da literatura. Como contribuições deste trabalho, destacam-se: i) a seleção de análises linguísticas do estado da arte adicionadas ao framework; ii) a proposta de padronização das entradas e saídas de dados das ferramentas de PLN de acordo com padrões de representação de anotação linguística já estabelecidos na literatura; iii) a implementação de uma arquitetura computacional munida de multithreads e paralelismo para customização de pipelines de PLN, guiada por uma expressiva porém simples interface gráfica; iv) e um módulo para facilitar a integração e atualização de novas ferramentas de PLN de terceiros, bem como a geração de estatísticas básicas dos dados textuais. Finalmente, diversos experimentos realizados mostram que o DeepNLPF obteve um melhor desempenho em relação ao processamento sequencial das ferramentas de PLN testadas. Mais precisamente, cerca de 60% mais rápido em termos de tempo de processamento.

Resumo 5

A sociedade vem passando por mudanças radicais nas últimas décadas. Cada vez mais, aparelhos inteligentes surgem no nosso dia a dia com o intuito de nos trazer comodidades. Empresas que atuam em diversas áreas de mercado tem investido cada vez mais em algoritmos de inteligência artificial. Apesar dos enormes avanços da última década, os algoritmos mais modernos ainda estão longe de construir, generalizar e inferir conhecimentos como humanos. Essas limitações por muitas vezes limitam o escopo que esses algoritmos podem atuar e trazem vulnerabilidades neles. Para que máquinas possam realmente estar presentes nos mais diversos ambientes do cotidiano elas precisam aprender a interagir com o mundo e se adaptar a ele. Robôs inteligentes são agentes que conseguem, a partir das observações retiradas do seu ambiente, inferir conhecimentos que garantam a autonomia do robô em executar a tarefa. O controle do robô do seu próprio corpo de forma adequada é uma característica fundamental, que deve ser aprendida por qualquer agente que precise atuar em um ambiente. Um agente com essas características pode ser aplicado em diversas tarefas. Esta dissertação utiliza aprendizagem de máquina, prioritariamente com o paradigma de aprendizagem por reforço, para estudar como agentes se comportam em ambientes dinâmicos e complexos para realizar uma tarefa comum a todos. O intuito é, posteriormente, aplicar a melhor técnica estudada em robôs reais e participar de uma competição real para avaliar o desempenho da estratégia aprendida. Este trabalho visa investigar e contribuir para o avanço da área de aprendizagem de comportamentos para o mundo real, construindo um ambiente de aprendizagem por reforço fiel à realidade e analisando sempre o tradeoff entre dificuldade de simulação e velocidade de aprendizagem. Achar um equilíbrio entre essas duas variáveis para que o modelo aprenda rápido e consiga ser aplicado e extrapolado para um cenário do mundo real. Utilizando o ambiente criado treinar agentes simulados capazes de performar bem no jogo de futebol de robôs e conseguir transferir o comportamento aprendido para um robô real de forma que seu comportamento fique fiel ao aprendido em simulação.

Data da última modificação: 29/08/2019, 16:05