News News

Back

Pós-Graduação em Ciência da Computação promove defesa de duas teses de doutorado e uma dissertação de mestrado esta semana

As defesas serão realizadas amanhã (25), às 8h e 10h, e nesta quinta-feira (26), às 8h, de forma virtual

O Programa de Pós-Graduação em Ciência da Computação, do Centro de Informática (CIn) da UFPE, promove nesta semana a defesa de duas teses de doutorado e uma dissertação de mestrado. A tese “Aplicando Ferramentas de Análise de Séries Temporais não Lineares para a Detecção e Mudanças de Conceito no Contexto do Aprendizado Adaptativo Supervisionado”, produzida pelo doutorando Rohgi Toshio Meneses Chikushi, orientada pelo professor Roberto Souto Maior de Barros e coorientada pela professora Marilú Gomes da Silva (UFPE/Engenharia Biomédica) será defendida amanhã (25).

A defesa será realizada às 8h, de forma virtual, e os interessados em acompanhar devem entrar em contato com o autor. A banca examinadora será composta pelos professores Germano Crispim Vasconcelos (UFPE/Centro de Informática); Paulo Mauricio Gonçalves Junior (IFPE); Wilson Rosa de Oliveira Junior (UFRPE/Departamento de Estatística e Informática); Jean Paul Barddal (PUC/PR/Escola Politécnica); e João Roberto Bertini Junior (Unicamp/Faculdade de Tecnologia).

A segunda tese, intitulada “Qualidade do trabalho em equipe no desenvolvimento de software: uma abordagem multimétodo”, também será defendida amanhã (25). Escrita pela doutoranda Any Caroliny Duarte Batista, orientada pela professora Renata Maria Cardoso Rodrigues de Souza e coorientada pelo professor Fabio Queda Bueno da Silva, a tese de doutorado será apresentada às 10h. A banca examinadora contará com a presença dos professores André Luís de Medeiros Santos (UFPE/Centro de Informática); Hermano Perrelli de Moura (UFPE/Centro de Informática); Roberta Andrade de Araújo Fagundes (UPE/Escola Politécnica de PE); Marcos Kalinowski (PUC/RJ/Departamento de Informática) e George Marsicano Corrêa (UnB/Faculdade UnB Gama). A defesa será virtual e os interessados em assistir devem entrar em contato com a autora.

 
Nesta quinta-feira (26), o programa de pós-graduação também realiza a defesa da dissertação de mestrado “Experimental Evaluation on Packet Processing Frameworks under Virtual Environments”. Produzida pelo mestrando Eduardo Felipe Fonseca de Freitas e orientada pelo professor Djamel Fawzi Hadj Sadok, a dissertações será defendida às 8h, de forma virtual, e os interessados em assistir devem entrar em contato com o autor através do e-mail efff@cin.ufpe.br. A banca examinadora da defesa será composta pelo orientador e pelos professores Nelson Souto Rosa (UFPE/Centro de Informática) e Glauco Estácio Gonçalves (UFPA/Faculdade de Engenharia da Computação e Telecomunicações).

Resumo 1

Atualmente, algoritmos de Aprendizado de Máquina são aplicados em diversos domínios para a extração de informação em grandes volumes de dados. Apesar de modelos consolidados lidarem de forma efetiva com dados identicamente e independentemente distribuídos (i.i.d.), algoritmos aplicados a fluxos de dados devem lidar com distribuições não estacionárias. O desafio é manter um modelo de decisão atualizado, preciso e consistente, mesmo sujeito a mudanças nas distribuições de probabilidade dos dados, um fenômeno conhecido como mudança de conceito. Neste contexto, os algoritmos combinam um classificador e um detector para identificar mudanças na distribuição do erro das predições a fim de adaptar ou substituir rapidamente o modelo preditivo. Diversas propostas têm sido apresentadas na literatura para a detecção de mudanças de conceito com base na taxa de erro dos modelos preditivos. Em geral, a distribuição da taxa de erro fundamenta a maioria das abordagens baseadas em metodologias como a análise sequencial, o controle estatístico do processo, ou pelo monitoramento das distribuições por meio de janelas deslizantes, as quais assumem que os erros de predição são gerados de forma independente. Apesar da vasta aplicação desses detectores, estudos empíricos têm mostrado que a taxa de erro pode ser influenciada pela dependência temporal. Além disso, abordagens supervisionadas requerem dados rotulados, os quais podem ser difíceis de obter em muitas aplicações do mundo real. Nesta tese, ferramentas da Análise Não Linear de Séries Temporais foram utilizadas com o objetivo de prover detectores não restritos ao pressuposto de observações i.i.d., e mais apropriados para lidar com fluxos de dados sujeitos à dependência temporal. Neste sentido, foram propostos três detectores: Spectral Entropy Drift Detector (SEDD), Permutation Entropy Drift Detector (PEDD), e Recurrence Quantification Analysis Drift Detector (RQADD). Também foi proposta uma abordagem de rotulação simbólica (Symbolic Labeling Adapter (SLA)) com o intuito de expandir a aplicação de modelos adaptativos supervisionados a domínios onde fluxos de dados não são rotulados, visando a detecção de mudanças de conceito. Diversos experimentos computacionais usando bases de dados reais e artificiais mostram que os detectores propostos foram competitivos na maioria dos cenários, e que a abordagem de rotulação é uma ferramenta promissora.

Resumo 2

Contexto: Nas organizações, o desenvolvimento de software integra duas formas complementares de design do trabalho. Por um lado, indivíduos desenvolvem tarefas que cobrem as necessidades técnicas do desenvolvimento: requisitos, especificação, codificação, teste, documentação etc. Por outro lado, membros das equipes de software precisam desenvolver atividades sociais necessárias para que atividades individuais sejam integradas com efetividade: comunicação, coordenação, resolução de conflitos etc. Então, efetividade com que equipes conseguem desenvolver estas atividades sociais podem impactar na produtividade e refletir na qualidade do software produzido. Apesar da efetividade do trabalho em equipe ter uma extensa literatura em outras áreas e até mesmo na engenharia de software, estes estudos têm produzido pouco impacto prático no gerenciamento de equipes em organizações. Diversos problemas teórico-metodológicos particularmente associados à natureza do trabalho de software resumido acima podem explicar este baixo impacto. Objetivos: Este estudo foi desenvolvido a partir de uma teoria sobre a qualidade do trabalho em equipe no desenvolvimento de software existente na literatura (doravante denominada TWQ). Neste processo, foram conduzidas duas replicações diferenciadas de estudos anteriores sobre TWQ com o objetivo de expandir os contextos em que o TWQ foi aplicado e construindo discussões inovadoras sobre o método de coleta e a análise dos resultados quantitativos em estudos sobre equipes. Apresentamos um desenho de pesquisa diferenciado dos demais estudo sobre TWQ encontrados na literatura e também buscamos contribuir a validação do instrumento de medição de TWQ, com base em técnicas validadas na literatura. Além disso, objetivamos apresentar os resultados de um estudo de natureza qualitativa, realizado para investigar como equipes que trabalham dentro de um mesmo contexto organizacional constroem visões heterogêneas sobre o seu trabalho colaborativo. Método: O estudo se desenvolveu a partir de três estudos; dois quantitativos e um qualitativo. Os quais ocorreram ao longo dois anos e meio. Participaram do estudo 18 equipes de desenvolvimento de software de uma empresa localizada no Recife, PE. O estudo completo contou com diversas características inovadoras de design, tais como: foram coletados dados de todos os membros de cada equipe participante, o que é inovador em estudo sobre TWQ; o estudo foi realizado em uma única empresa, o que ajuda a bloquear as possíveis influências de fatores de nível organizacional nas medidas de nível de equipe; as hipóteses foram testadas tanto no nível individual quanto no nível da equipe, o que também é inovador no campo de estudos sobre TWQ; este foi o primeiro estudo utilizando TWQ com uma versão traduzida do instrumento e no contexto brasileiro. Por fim, completamos nosso estudo com a apresentação de uma pesquisa qualitativa, realizada por meio de observações e entrevistas semi-estruturadas, as quais foram analisados com base em técnicas de codificação da ground theory. Resultados: Esta tese permitiu ampliar o estado da arte sobre estudos sobre TWQ utilizando equipes de software como unidade de análise. Neste processo, construímos uma discussão que melhora a compreensão sobre análise multinível de equipes através da utilização de métodos estatísticos. Também contribuímos com a revisão do instrumento de TWQ, que foi refinado a partir do uso de técnicas validadas na literatura. Por fim, fornecemos um conjunto de fatores relacionados a três dimensões (práticas e processos, relacionamentos internos e relacionamentos externos) que contribuem, de diferentes formas, para a construção de percepções com efeitos positivos ou negativos na TWQ de desenvolvimento de software. Conclusões: Nesta tese, foram levantadas discussões importantes sobre a validade da agregação de dados individuais às medidas de nível de equipe em relação aos construtos estudados. Nossos resultados apoiaram parcialmente estudos anteriores, mas levantaram questões sobre a validade da agregação de dados individuais às medidas de nível de equipe dos construtos estudados. Também revisamos a estrutura do instrumento de TWQ e apresentamos um desenho de pesquisa inovador para estudos que utilizam equipes como unidades de análise que podem ser utilizados em pesquisas futuras. Além disso, identificamos um conjunto de situações que podem ser estimuladas ou minimizadas por gerentes de projetos, enquanto agentes moderadores, da gestão de práticas que podem impactar na TWQ na engenharia de software.

Resumo 3

O kernel Linux é um componente central das aplicações de rede, estando presente na maioria dos servidores em data centers. Com o tempo, à medida que servidores e placas de rede evoluíram para atender tecnologias de rede com demandas de alto throughput e baixa latência, o kernel tornou-se um gargalo, impedindo as aplicações de rede de utilizarem a capacidade máxima do hardware. Nesse cenário, diferentes frameworks de processamento de pacotes surgiram para solucionar esse gargalo. Os dois principais são o DPDK e XDP, com propostas diferentes para atingir altas taxas de processamento. DPDK adota o bypass do kernel, excluindo-o do processamento e levando os pacotes para o user-space. Já o XDP, por outro lado, processa os pacotes dentro do kernel, de forma antecipada comparada ao processamento padrão. Em conjunto com isso, o paradigma de computação em nuvem, atualmente disponível na maioria dos data centers, traz a virtualização como tecnologia fundamental. Com múltiplas aplicações e sistemas sendo executados no mesmo host, surge outro problema, o de competição de recursos. Assim, essa dissertação executa experimentos que buscam avaliar como a presença de um ambiente virtual de computação em nuvem pode interferir no desempenho de ambos DPDK e XDP. Os resultados mostram que embora o processamento “dentro do kernel” traga mais segurança e integração com sistema, essas exatas medidas de segurança causam perda de desempenho ao XDP. Além disso, o XDP também demonstra ser o mais afetado pela presença do ambiente virtual, considerando a taxa de throughput e também a perda de pacotes. Por outro lado, existe um dilema ao utilizar o XDP, que não somente é possível alcançar maior segurança, mas também em relação ao uso de recursos, já que o DPDK aloca um núcleo de CPU completo para utilizar no processamento de pacotes. Também, dependendo do processamento sendo feito pelo framework, como quando depende de uso intenso de CPU, o DPDK oferece uma perda considerável de desempenho do throughput.

Date of last modification: 24/08/2021, 17:28