Dissertations/Thèses

Acesse a Biblioteca Digital de Teses e Dissertações da UFLA

2024
Description
  • ROLF PAGOTTO VEIGA
  • Desenvolvimento de Diretrizes para Classificação Automática com Foco na Identificação de Músicas Cristãs

  • Conseiller : ERIC FERNANDES DE MELLO ARAUJO
  • Data: 30 août 2024
  • Afficher le Résumé
  • O estudo apresentado nesta dissertação explora a aplicação de algoritmos avançados de Processamento de Linguagem Natural (PLN) para examinar as letras de músicas gospel brasileiras. Utilizando o modelo BERT (Bidirectional Encoder Representations from Transformers), desenvolvido por Devlin et al. em 2019, esta pesquisa se propõe a decifrar padrões linguísticos e temáticos nas composições, vi- sando entender como essas refletem as crenças, valores e a identidade religiosa no contexto brasileiro. A música gospel é um componente vital da cultura brasileira, servindo como uma expressão de fé e um veículo para a construção da identidade comunitária e individual. Este estudo foca particularmente na análise de senti- mentos e na identificação de temas de adoração, usando o BERT para analisar a complexidade e a riqueza do conteúdo lírico das músicas. A dissertação deta- lha a metodologia empregada na coleta e análise dos dados, destacando o papel transformador do BERT no entendimento contextualizado de textos. Combinando técnicas quantitativas e qualitativas, a pesquisa não apenas fornece insights sobre a evolução da música gospel brasileira, mas também demonstra o potencial do uso de modelos de PLN no estudo detalhado de textos musicais. Este trabalho é signi- ficativo para os campos de estudos da música, religião e tecnologia da informação, oferecendo uma nova perspectiva sobre como a tecnologia pode ser utilizada para aprofundar a compreensão das dinâmicas culturais e espirituais contemporâneas.

  • SUELI PEREIRA PERPETUA
  • UMA PROPOSTA DE RECOMENDAÇÕES PARA ONBOARDING REMOTO EM ORGANIZAÇÕES DE DESENVOLVIMENTO DE SOFTWARE

  • Data: 28 août 2024
  • Afficher le Résumé
  • Na indústria de software, houve uma mudança significativa do trabalho presencial para modelos remotos ou híbridos devido a fatores como como a pandemia de COVID-19. Isto obrigou as organizações a adaptarem seus formatos de trabalho. A transição para o trabalho virtual teve um impacto notável no recrutamento, integração e formação de novas contratações, dando origem ao conceito de “integração remota” ou "integração virtual." Isto se refere ao processo de integração de novos colaboradores que estão trabalhando remotamente, que envolve todas as etapas e interação por meio de plataformas e ferramentas digitais. Este trabalho propõem um guia de recomendações para este contexto específico de onboarding. Para isto, realizou-se um Estudo de Mapeamento Sistemático, que resultou na seleção de 23 estudos primários. As principais descobertas incluem a observação de que o processo de integração é sensível ao contexto, afetado por características como tamanho da organização, modelo de trabalho, e metodologias de desenvolvimento. Descobrimos também que há uma falta de estudos avaliando a viabilidade de modelos e ferramentas. Esses resultados foram complementados com um estudo  qualitativo realizado por meio de entrevistas com 20 profissionais envolvido no processo de integração em organizações de  desenvolvimento de software. Os resultados revelaram algumas conclusões importantes: Primeiro, a maioria das organizações institucionalizaram processos de integração até certo ponto. Segundo, há uma separação distinta entre o onboarding técnico e organizacional, com a integração organizacional tendendo a ser mais padronizado. Terceiro, os principais desafios identificados se enquadram em categorias relacionadas a aprendizagem, comunicação e aspectos pessoais. Por fim, o principal facilitador do processo de integração é o desenvolvimento de uma cultura organizacional de apoio e colaboração. A partir das conclusões obtidas no dois estudos, foi proposto um guia de recomendações para onboarding remoto, com diretrizes práticas e adaptáveis, que compreende sugestões específicas para atividades de aprendizado, socialização, construção de confiança, práticas e tecnologias colaborativas, que podem ser empregadas para integrar remotamente novos colaboradores em organizações de desenvolvimento de software.

  • MATHEUS DE ANDRADE FLAUSINO
  • USO DE REDES COMPLEXAS PARA ANÁLISE DA RELAÇÃO ENTRE A TOPOLOGIA URBANA DE CIDADES DE MINAS GERAIS E A OCORRÊNCIA DE CRIMES DE RUA

  • Conseiller : ERIC FERNANDES DE MELLO ARAUJO
  • Data: 29 juil. 2024
  • Afficher le Résumé
  • Os crimes representam desafios sociais complexos e existe uma vasta gama de estudos que propõem-se a explicá-los. Compreendê-los é uma etapa crucial para adoção de medidas efetivas no combate à criminalidade. Atualmente, os órgãos de segurança pública do Estado de Minas Gerais registram as informações espaço-temporais dos crimes, em específico os crimes de rua, em suas ocorrências, permitindo assim que tais episódios sejam analisados, inclusive considerando também a esturtura urbana de suas respectivas cidades. O objetivo deste trabalho foi caracterizar a estrutura urbana de cada cidade na forma de rede complexa e correlacionar tal estrutura com a localização da ocorrência desses crimes. As cidades envolvidadas neste projeto são: Alfenas, Itabira, Itajubá, João Monlevade, Lavras, Ouro Preto, São João Del Rei e Viçosa. Nós apresentamos uma abordagem utilizando redes complexas e suas medidas de centralidade para compreender a concentração espacial ao longo dos anos de ocorrência de crimes de rua praticados nas cidades envolvidas neste projeto durante o período entre os anos de 2014 e 2022. Os resultados nos mostram que a medida de centralidade por proximidade é a medida que apresenta melhores valores de correlação com as regiões de concentração criminial.

  • MATHEUS DE ANDRADE FLAUSINO
  • USO DE REDES COMPLEXAS PARA ANÁLISE DA RELAÇÃO ENTRE A TOPOLOGIA URBANA DE CIDADES DE MINAS GERAIS E A OCORRÊNCIA DE CRIMES DE RUA

  • Conseiller : ERIC FERNANDES DE MELLO ARAUJO
  • Data: 29 juil. 2024
  • Afficher le Résumé
  • Os crimes representam desafios sociais complexos e existe uma vasta gama de estudos que propõem-se a explicá-los. Compreendê-los é uma etapa crucial para adoção de medidas efetivas no combate à criminalidade. Atualmente, os órgãos de segurança pública do Estado de Minas Gerais registram as informações espaço-temporais dos crimes, em específico os crimes de rua, em suas ocorrências, permitindo assim que tais episódios sejam analisados, inclusive considerando também a esturtura urbana de suas respectivas cidades. O objetivo deste trabalho foi caracterizar a estrutura urbana de cada cidade na forma de rede complexa e correlacionar tal estrutura com a localização da ocorrência desses crimes. As cidades envolvidadas neste projeto são: Alfenas, Itabira, Itajubá, João Monlevade, Lavras, Ouro Preto, São João Del Rei e Viçosa. Nós apresentamos uma abordagem utilizando redes complexas e suas medidas de centralidade para compreender a concentração espacial ao longo dos anos de ocorrência de crimes de rua praticados nas cidades envolvidas neste projeto durante o período entre os anos de 2014 e 2022. Os resultados nos mostram que a medida de centralidade por proximidade é a medida que apresenta melhores valores de correlação com as regiões de concentração criminial.

  • BRUNA SANTANA CAPELETI
  • Human-data Interaction in Geoprocessing Applications: Design Recommendations from Inspections, User Evaluations and Expert Experiences.

  • Data: 24 avr. 2024
  • Afficher le Résumé
  • Interactive applications to explore data are increasing daily as numerous data sources are used across various contexts. Consequently, it becomes imperative to consider the quality of user interaction and interpretation when dealing with data. In recent years, another noteworthy aspect gaining prominence is the utilization of geoprocessing to depict distances on maps, determine routes, and perform other related functions in the environmental area. Analyzing data within geoprocessing systems demands appropriate procedures to enhance the interactive technologies employed in such systems. This issue entails adopting user-centered approaches and strategies to mitigate the inherent complexity. While numerous heuristics are available for human-computer interaction studies, and some heuristics for human-data interaction have been developed recently, the availability of heuristics specifically catering to interaction and interpretation of data in maps remains limited. This study aimed to propose design recommendations specifically for human-data interaction within the geoprocessing domain. The development of these recommendations involved a series of studies conducted to identify the most significant issues pertaining to the interactions and development processes. The method included interviews with geoprocessing experts, usability inspections and tests with users. The first step involved interviews with 15 specialists in geoprocessing applications to understand the primary challenges associated with the development of this technology. The second step involved performing heuristic evaluations with three specialists in human-computer interaction, utilizing existing heuristics. The final step involved conducting user tests to ascertain users' difficulties when interacting with data displayed on maps. For this investigation, four geoprocessing applications from the market were evaluated: "SNISB" (18 users), and "SIOUT SC", , "P3M", and "Observatório da Agropecuária" (27 users, 9 on each system). These applications, developed by the Brazilian Government, aim to provide information to diverse user groups. Following an analysis of the obtained results, the thematic analysis of the interviews yielded two themes: 1) Characteristics of Geoprocessing Systems in Environmental Contexts and Implications for Design and 2) Development of Applications for Geo Data Interaction in Environmental Contexts, divided into three subthemes each. The usability inspections of the four applications yielded 211 problems. Usability evaluations with users yielded 186 unique problems. The problems from both evaluations yielded seven categories. From the analysis of the expert interviews, inspections with usability specialists, and user evaluations, the study drew ten recommendations for the design of geoprocessing interactive applications, which were divided into product and process recommendations. The proposed recommendations aim to improve the development of interactive data-intensive geoprocessing and improvements in the usability of such applications.

  • LUCAS RAFAEL RODRIGUES PEREIRA
  • UMA ABORDAGEM DE DEEP-LEARNING PARA REALIZAR A PREDIÇÃO DE REFATORAÇÕES.

  • Data: 17 avr. 2024
  • Afficher le Résumé
  • Refatorar é o processo de alteração da estrutura interna de um software a fim de
    melhorar sua qualidade, sem modificar o seu comportamento externo. Estudos
    recentes têm demonstrado que o ato de refatorar traz resultados positivos para
    manutenção e compreensão do código e do sistema como um todo. Ocorre que,
    atualmente, esse método ainda é pouco utilizado, sendo a expertise e a intuição os
    principais fatores que determinam a necessidade de refatoração de um software.
    Antes de iniciar o processo de refatoração, é imprescindível a análise para verifi-
    car se a refatoração é algo realmente necessário. Desse modo, o presente estudo
    visa avaliar técnicas de inteligência artificial, tal como deep learning, para predizer
    quando a refatoração do software é essencial. Para tal, foi escolhido um dataset
    com base nos algoritmos de deep learning, de modo a treinar a inteligência artifi-
    cial. Por fim, serão feitas comparações com os modelos clássicos e outros modelos
    de predição de refatoração para avaliar a eficácia dos algoritmos de deep learning

  • LUCAS RAFAEL RODRIGUES PEREIRA
  • UMA ABORDAGEM DE DEEP-LEARNING PARA REALIZAR A PREDIÇÃO DE REFATORAÇÓES

  • Data: 16 avr. 2024
  • Afficher le Résumé
  • Refatorar é o processo de alteração da estrutura interna de um software a fim de
    melhorar sua qualidade, sem modificar o seu comportamento externo. Estudos
    recentes têm demonstrado que o ato de refatorar traz resultados positivos para
    manutenção e compreensão do código e do sistema como um todo. Ocorre que,
    atualmente, esse método ainda é pouco utilizado, sendo a expertise e a intuição os
    principais fatores que determinam a necessidade de refatoração de um software.
    Antes de iniciar o processo de refatoração, é imprescindível a análise para verifi-
    car se a refatoração é algo realmente necessário. Desse modo, o presente estudo
    visa avaliar técnicas de inteligência artificial, tal como deep learning, para predizer
    quando a refatoração do software é essencial. Para tal, foi escolhido um dataset
    com base nos algoritmos de deep learning, de modo a treinar a inteligência artifi-
    cial. Por fim, serão feitas comparações com os modelos clássicos e outros modelos
    de predição de refatoração para avaliar a eficácia dos algoritmos de deep learning

2023
Description
  • STELLA AZEVÊDO MARQUES
  • USO DO CHATGPT COMO TUTOR PARA A CONFIGURAÇÃO DE AMBIENTES DE SIMULAÇÃO DE REDES DE COMPUTADORES

  • Data: 22 nov. 2023
  • Afficher le Résumé
  • Os algoritmos de roteamento são um dos principais fatores que impactam diretamente no desempenho das rede sem fio, os algoritmos convencionais não consideram o histórico de dados da rede, como por exemplo, caminhos sobrecarregados ou falhas de equipamentos o que pode impactar no tempo de comunicação entre os nós que compõe essa rede. A fim de melhorar o tempo limite da espera entre as trocas de pacotes de uma rede Ad-Hoc, utilizando algoritmos de roteamento baseados em técnicas de aprendizagem por reforço (do inglês, Reinforcement Learning - RL), este trabalho pretende modificar aos cabeçalhos das mensagens de controle, aplicando ajustes na escolha do tempo limite para espera das respostas do parâmetro ACK. Utilizando-se do conceito de redes oportunistas, onde cada nó selecionará um conjunto de vizinhos, chamados de candidatos, como um potencial salto em direção ao destino final. Alinhando a este conceito de seleção as técnicas de RL para fazer com que o algoritimo tome decisões baseadas no histórico da rede tendo como parâmetro base o tempo de espera e ajustando esse tempo conforme os padrões observados durante a excussão do algoritmo. Nesse contexto, esta pesquisa pretende trabalhar no algoritmo do protocolo de rede conhecido como JOKER e compará-lo ao protocolo BATMAN, modificando seu cabeçalho para que overhead (sobrecarga) da rede seja reduzido. Acredita-se que com uma escolha mais assertiva e assim menos demorada os conflitos nas rotas tendem a diminuir, fazendo com que quando exista alguma sobrecarga a rede consiga se estabilizar mais rápido.

  • FABIO RODRIGUES PEREIRA
  • ANÁLISE COMPARATIVA DE FERRAMENTAS PARA DETECÇÃO DE ANOMALIAS DE REQUISITOS DE SOFTWARE.

  • Data: 21 juil. 2023
  • Afficher le Résumé
  • Um requisito de software indica uma capacidade ou uma característica que um software deve apresentar para ter valor aos seus stakeholders. É fundamental garantir que a descrição dos requisitos seja clara e inequívoca, a fim de permitir seu correto entendimento e facilitar a sua evolução. Porém, como a maioria dos requisitos de software são descritos em linguagem natural, pode ser que eles contenham subjetividades e inconsistências em sua descrição, ao que convencionou-se chamar de “Anomalia de Requisitos de Software”. Diversos trabalhos têm proposto ferramentas com o objetivo de contribuir para a detecção de anomalias de requisitos. Contudo, pode-se notar que poucos desses trabalhos têm avaliado a efetividade (cobertura e precisão) das ferramentas propostas, comparando-as umas com as outras e procurando identificar seus pontos fortes e fracos. Por conseguinte, este trabalho, candidatou-se a realizar um estudo experimental para cobrir esse gap da literatura. Ao todo, 3 (três) ferramentas para detecção de anomalias foram criteriosamente selecionadas da literatura (RETA, Tactile Check e Tiger Pro) e analisadas com base em documentos de requisitos de diferentes domínio, contendo mais de 85 anomalias. Como resultado, têm-se que a ferramenta com maior cobertura é a RETA, tendo identificado corretamente 85.19% das anomalias existentes. Porém, considerando a média entre cobertura e precisão, a ferramenta Tactile Check foi a que apresentou o melhor resultado. Apesar disso, todas as ferramentas comparativamente analisadas neste trabalho tiveram um nível insatisfatório de cobertura e precisão, ficando abaixo de, respectivamente, 66% e 57%. Isso se deve, em grande parte, pelas palavras que compõem o dicionário não estarem bem calibradas com as anomalias que a ferramenta se dispõe em detectar e pela técnica de detecção não considerar o contexto da descrição do requisito do qual o termo anômalo é inserido.

  • OLUWATOYIN JOY OMOLE
  • DETECTION OF SOYBEAN PESTS AND DISEASES THROUGH MACHINE LEARNING TECHNIQUES.

  • Data: 3 juil. 2023
  • Afficher le Résumé
  • Plants diseases have been a major setback in agriculture, causing the plants to produce lesser thereby reducing agricultural productivity.Autonomous detection of diseases and pathogens has helped to significantly improve plant productivity. These different automatic detection methods has achieved accuracies bellow the 89% and also very few has been accessible techniques and data-sets to the end users. This study aims to compare the results of different machine learning models used for image classification, then deploy the model with the best accuracy, precision, AUC score and recall in detecting the presence of a caterpillar pest and Frog-eye leaf spot disease in soybeans. Neo 2017 has compared the performances of SNM, KNN and Random Forest for classifying land cover imagery and SVM was found to have the highest classification accuracy. Also compared to
    Jad hav 2019 soybean leaf diseases were detected using multi-class SVM classifier and K-NN, in which the SVM gave an accuracy 88.38% and K-NN gave 84.64%. Thus, we pretend to compare the performance of these main classifiers on plant leaf image and projecting the one with the highest accuracy, working the main features for a better plant disease classification. In this work, we will analyze the performance metrics of accuracy, recall, precision, and F-measure with the aim of comparison to the related works.

  • ADILSON TORRES
  • ESTUDO DA QUALIDADE DA VOZ EM SISTEMAS DE COMUNICAÇÃO MÓVEL ATRAVÉS DO CODEC EVS UTILIZANDO AS MÉTRICAS DE QUALIDADE P.862 E E-MODEL.

  • Data: 30 juin 2023
  • Afficher le Résumé
  • Este trabalho apresenta uma análise abrangente do codificador de voz \textit{Enhanced Voice Service} (EVS) e seu impacto na comunicação de voz. O objetivo principal é avaliar o desempenho do EVS em diferentes configurações, utilizando métodos objetivos de avaliação perceptual da qualidade de sinais de áudio. A qualidade de experiência (QoE) é um aspecto importante a ser considerado ao analisar a qualidade da comunicação de voz. Além disso, o trabalho destaca os diversos modos nos quais o EVS pode ser utilizado, permitindo que os usuários escolham a melhor opção para suas necessidades de comunicação de voz. O EVS é um codec de áudio de alta qualidade que tem revolucionado as comunicações de voz, oferecendo benefícios significativos em termos de qualidade sonora, eficiência de rede e consumo de energia. O estudo também investiga o impacto dos codificadores e parâmetros de rede na qualidade da comunicação de voz. Para medir a qualidade do sinal de voz com diferentes degradações, o estudo utiliza métricas como o \textit{Mean Opinion Score} (MOS) recomendado pela ITU-T P.862, o E-Model ITU-T G.107, e o coeficiente de correlação de Pearson para verificar a relação entre eles. Essas métricas e recomendações utilizam algoritmos para atribuir um valor à amostra de áudio que está sendo avaliada, permitindo uma avaliação objetiva da qualidade da comunicação de voz.

  • MARCELO RODRIGO DOS SANTOS
  • NOVOS INDICADORES DE QOE PARA REDES DE SERVIÇOS MÓVEIS POR MEIO DA EXTRAÇÃO DE OPINIÕES DAS REDES SOCIAIS.

  • Data: 30 juin 2023
  • Afficher le Résumé
  • As redes móveis têm disponibilizado diversos serviços, desde o seu surgimento, possibilitando que
    seus usuários realizem atividades como: chamadas de vídeo e voz, conexão com a internet, operações

    bancárias, comunicação via redes sociais entre outras, fazendo com que o mercado de telecomuni-
    cação se movimente em prol de atender a clientes cada vez mais acostumados com as facilidades

    oferecidas nesse tipo de redes. Assim, observa-se que há uma necessidade de os prestadores de ser-
    viços de redes móveis buscarem formas de entender a qualidade de experiências vivenciadas pelos

    seus clientes. Estudos sobre a qualidade de experiência QoE (Quality of Experience) contribui para a

    avaliação com base na experiência de usuários sobre determinados produtos ou serviços, sendo prin-
    cipalmente utilizado nas áreas de telecomunicação. Para análises de serviços de telecomunicação, o

    método de mensurar a QoE, foi proposto pelo grupo de estudo ITU-T (International Telecommunicati-
    ons Union - Telecommunication Standardization Sector) e é chamado de MOS (Mean Opinion Score).

    O MOS é um método subjetivo que utiliza a métrica de pontuação de um (1) a cinco (5) para a indicar
    a experiência subjetiva do usuário. Neste contexto esta pesquisa tem como objetivo, a busca de novos
    indicadores de QoE para as principais operadoras de redes móveis que atuam em território brasileiro
    com base nas opiniões emitidas pelos usuários e publicadas em redes sociais. As redes sociais têm se

    tornado um campo de pesquisa, principalmente, pela quantidade de informações geradas, constante-
    mente, pelos seus usuários que publicam as suas opiniões sobre suas experiências com determinados

    produtos ou serviços. Para atingir tal objetivo, nesta pesquisa, utiliza-se o aprendizado de máquina,
    para processar as opiniões emitidas, utilizado-se o processamento de linguagem natura (PLN) com

    BERT, na sua forma pré-treinada, na língua portuguesa brasileira, chamada BERTimbau para classifi-
    car as opiniões em conformidade com a pontuação MOS e assim chegar a novos indicadores de QoE.

    Os resultados preliminares, executados no modelo preditivo com acurácia em 0.73, aponta para uma
    paridade nos indicadores QoE por operadora.

  • CHRISTIAN FELIX GBEDANDE AZONYETIN
  • UMA ARQUITETURA SDN BASEADA NOS PLANOS DE CONHECIMENTO E GERENCIAMENTO PARA DETECÇÃO E MITIGAÇÃO DE ATAQUES DDOS.

  • Data: 16 juin 2023
  • Afficher le Résumé
  • Os inúmeros ataques  às redes de computadores tem causado sérios prejuízos para empresas e usuários em geral. As Redes Definidas por Software, ou  Software Defined Networks - SDN, surgem como uma alternativa inovadora para isolamento e controle do tráfego da rede. O paradigma SDN permite a criação de regras a partir de um controlador que define ações sobre o comportamento do tráfego na rede. Apesar disso, as SDN  também sofrem de problemas de segurança, um dos principais tipos de ataque é baseado em negação de serviço distribuído (Distributed Denial of Service - DDoS), que pode atingir tanto os servidores da rede quanto o controlador SDN, deixando a rede inoperante. Na literatura atual existem relatos que os controladores da SDN não são capazes de lidar com um grande número de novos fluxos, criando vulnerabilidade na segurança dessas redes. A maioria das soluções propostas utilizam algoritmos de aprendizado de máquina para classificar o tráfego da rede de uma forma não estruturada dentro da atual arquitetura SDN. Neste trabalho, o objetivo é o desenvolvimento de uma nova arquitetura SDN para a detecção e mitigação de ataques de DDoS, que inclua o plano do conhecimento (Knowledge Plane -KP) e o plano de gerenciamento. O novo plano KP aproveita informações dos planos de gerenciamento (Management Plane - MP) e de controle para obter uma visão geral da rede e possibilitar um controle mais inteligente. O KP é responsável por aprender o comportamento da rede e, em alguns casos, operar autonomamente a rede, utilizando técnicas de aprendizado de máquina para classificação e análise do tráfego da rede. Para o treinamento dos algoritmos de aprendizado de máquina foram gerados \textit{datasets} de tráfegos legítimo e malicioso em uma estrutura de rede SDN experimental com switches e topologias reais. Os fluxos foram direcionados aos servidores e ao controlador da rede utilizando-se ferramenta de ataque como a Bonesi e T50. Como resultado, a nova arquitetura SDN proposta foi capaz de detectar e mitigar os ataques de DDoS, impedindo o esgotamento dos recursos do controlador SDN e evitando o congestionamento da rede. Como precisão durante os experimentos do cenário híbrido, Naive-Bayes foi o melhor porque teve $92,95\%$ de acertos. Os algoritmos SVM, KNN e Árvore de Decisão tiveram respectivamente $78,18\%$: $79,06\%$ e $64\%$ de precisão de acertos. A métrica Acurácia obtida pelos algoritmo Árvore de Decisão, Naive Bayes, KNN e  SVM foi respectivamente 74,28%, 93,82\%,  90,42\% e 86,36\%. A métrica Revocação deu 100\% para todos os argoritmos, enquanto a métrica Medida-F deu para os algoritmos Árvore de Decisão, Naive Bayes, KNN e  SVM respectivamente 78\% , 96,35\%, 88,31\% e 87,75\%. Para melhorar as técnicas de detecção e mitigação de ataques DDoS, e identificar requisitos de uma solução mais eficaz, são propostos módulos (de pré-processamento, de análise estatistica, de decisão e outros) para definir características e funções das camadas da nova arquitetura proposta. Todos os Hosts que foram classificados como maliciosos, foram automaticamente bloqueados com sucesso durante um momento de 60s então um resultado de 100\% de bloqueio.

  • FILIPE BARROS RODRIGUES
  • SISTEMA RECOMENDADOR DISTRIBUÍDO REATIVO BASEADO EM AGENTES MÓVEIS

  • Conseiller : TALES HEIMFARTH
  • Data: 8 mai 2023
  • Afficher le Résumé
  • O aumento da conectividade no mundo traz cada vez mais informações ao alcance das pessoas, e o volume de dados cresceu de forma tão intensa que, sem uma maneira de filtrá-los, pode facilmente sobrecarregar um usuário. Os sistemas recomendadores, que foram concebidos para tratar este problema, são responsáveis por coletar informações de uso de uma plataforma, filtrá-las, construir perfis de usuário baseadas nelas e gerar sugestões de itens personalizados para cada perfil, mas a maioria deles funciona de maneira centralizada, e isso levanta alguns problemas como a indisponibilidade em uma rede de baixa conectividade, além de questões de privacidade e robustez. Este trabalho propõe um sistema recomendador distribuído reativo baseado em filtragem colaborativa empregando agentes móveis que circulam em uma rede DTN sendo responsáveis pela coleta e disseminação de perfis de usuários compatíveis com o requerente do serviço de recomendação. O agente retorna ao seu originador para que este possa calcular recomendações. Diferente de uma abordagem proativa, este sistema só utiliza o meio de transmissão quando as recomendações são requisitadas, deixando-a livre de trocas de mensagens caso contrário. Testes na qualidade das predições e uso da rede foram realizados, e os resultados indicam que a solução proposta foi capaz de gerar recomendações relevantes, que, embora com RMSE um pouco maior que o proativo, economizaram recursos da rede. A solução proposta é indicada para cenários onde a geração de recomendação deva ser distribuída e gerada em resposta à demanda do usuário.

  • ÍTALO DELLA GARZA SILVA
  • REDES NEURAIS DE GRAFOS APLICADAS À DETECÇÃO DE LAVAGEM DE DINHEIRO.

  • Data: 14 avr. 2023
  • Afficher le Résumé
  • Crimes financeiros existem em todos os países do mundo, e um dos mais recorrentes é a Lavagem de Dinheiro. Esta é capaz de causar enormes prejuízos, tanto financeiros quanto relacionados à reputação, às empresas e agências governamentais envolvidas no processo. Atualmente, tais organizações utilizam algoritmos envolvendo técnicas de Inteligência Artificial para detectar transações financeiras suspeitas de Lavagem de Dinheiro. No entanto, tais métodos gerar uma quantidade enorme de transações suspeitas, sendo frequentemente necessária uma posterior avaliação humana para a confirmação da suspeição, aumentando os custos financeiros e o tempo gasto. Para solucionar esses problemas, a literatura tem apresentado vários métodos alternativos mais robustos, frequentemente envolvendo técnicas de \textit{Machine Learning}. Nesse cenário, uma vez que é possível representar transações financeiras por meio de grafos, métodos envolvendo Redes Neurais de Grafos (GNN) têm se mostrado uma solução promissora para a detecção de transações suspeitas de Lavagem de Dinheiro. Por meio de grafos, é possível representar transações tanto como vértices quanto como arestas, o que impactará na escolha do modelo de GNN para o processo de detecção. Este trabalho avalia as conhecidas arquiteturas de Rede Convolucional de Grafos (GCN) e Skip-GCN, assim como a recente Rede Neural de Nós e Arestas (NENN), para a solução do problema de detecção automatizada de Lavagem de Dinheiro, testando-as em transações financeiras geradas pelo simulador AMLSim. Para testar a influência do desbalanceamento de classe sobre a qualidade da detecção, foram geradas quatro bases de dados, AMLSim 1/3, AMLSim 1/5, AMLSim 1/10 e AMLSim 1/20, com taxas de desbalanceamento de 3, 5, 10 e 20, respectivamente. Inicialmente, os modelos de GNN foram testados sobre todos os conjuntos de dados, tanto com a classificação sendo feita por Softmax quanto por XGBoost. Em seguida, foi realizada uma otimização de hiperparâmetros nos modelos sobre a base de dados AMLSim 1/20, visando obter uma melhoria nos resultados para a taxa de desbalanceamento mais alta. Objetivando aumentar a precisão, foi também avaliada a classificação através da combinação Softmax + XGBoost disposta em cascata, de forma que o classificador seguinte confirmasse se a detecção de suspeição por parte do anterior. Nos resultados iniciais, embora os modelos GCN e Skip-GCN tenham se saído melhor no geral, a combinação NENN + XGBoost atingiu resultados melhores para o conjunto AMLSim 1/20, com uma macro-F1 de 86,69\%, indicando a influência positiva da representação das transações como arestas do grafo. Após a otimização de hiperparâmetros, todos os modelos melhoraram seus resultados, sendo que a combinação com a F1 mais alta (88,77\%) passou a ser Skip-GCN + Softmax. Com o uso da combinação de classificadores Softmax + XGBoost, o modelo Skip-GCN obteve a melhor F1 (88,90\%).

  • GABRIEL EDMILSON PINTO
  • APLICAÇÃO DE INTERNET DAS COISAS NA IDENTIFICAÇÃO E MONITORAMENTO DE MOVIMENTOS EM EXERCÍCIOS FÍSICOS COM PESOS LIVRES.

  • Data: 28 févr. 2023
  • Afficher le Résumé
  • Em um mundo cada vez mais integrado aos meios digitais, um novo recurso de comunicação tecnológica tem recebido mais visibilidade: a internet das coisas (Internet of Things – IoT). Esse recurso trata-se de imbuir de sensores sem fio os dispositivos utilizados no dia a dia da nossa sociedade com o intuito de facilitar a comunicação e explorar a capacidade dessas ferramen-
    tas na otimização de tarefas. Este trabalho integrou a internet das coisas no monitoramento de atividades físicas com foco no uso de pesos livres (anilhas), visando auxiliar praticantes e treinadores por meio de uma análise dos movimentos executados identificando exercícios através dos dados dos sensores. Este reconhecimento se deu pelo uso de algoritmos de aprendizado de máquina como árvores de decisão, perceptron multi-camadas e kNN, treinados para reconhecer padrões na movimentação dos pesos. As anilhas foram sensorizados com um microcontrolador ESP8266 e um sensor inercial MPU-6050 calibrado através de métodos de posição e filtros digitais. Os microcontroladores enviam os dados a um servidor através de comunicação por socket por meio de uma rede local, no servidor os dados são organizados e guardados, posteriormente aplicando processamentos e executando os algoritmos para classificar os exercícios. Os algoritmos se mostraram eficazes na identificação dos exercícios, alcançando acurácias superiores a 90% nos melhores casos. Essa aplicação possibilita treinamentos remotos e ou assíncronos de forma efetiva, não invasiva e com baixo custo.

  • THIAGO DO PRADO RAMOS
  • DIMENSIONAMENTO DE REDE SEM FIO DE UM CAMPUS UNIVERSITÁRIO BASEADO NA ANÁLISE DE LOGS DE CONEXÃO.

  • Data: 24 févr. 2023
  • Afficher le Résumé
  • As redes de computadores estão cada vez mais heterogêneas e seus usuários acessam diver-
    sos tipos de aplicações usando diferentes tecnologias. O acesso utilizando dispositivos móveis tem aumentado, fazendo uso massivo das conexões sem fio. Torna-se necessário conhecer os locais de conexão dos usuários dentro da rede para ser possível projetar e dimensionar redes com qualidade de serviço e melhorar a experiência do usuário. Com as informações de conexão pode-se melhorar o provisionamento de recursos, direcionar o tráfego de maneira mais eficaz, dependendo do tipo de serviço e localidade do usuário, economizar energia de dispositivos ou ainda conseguir prever problemas de segurança e desempenho da rede. Neste trabalho, foram analisados os registros de quatro meses de conexão à rede Wi-Fi de um campus universitário, com aproximadamente 15 mil usuários e criado um dataset anonimizado para auxiliar na tomada de decisões. Com essas informações foi possível definir padrões de locais de conexão dos usuários, melhorar o desempenho da rede de acordo com o número de conexões em cada local e realizar o dimensionamento de recursos. As redes de computadores estão cada vez mais heterogêneas e seus usuários acessam diversos tipos de aplicações usando diferentes tecnologias. O acesso utilizando dispositivos móveis tem aumentado e assim fazendo uso massivo das conexões sem fio. Torna-se necessário conhecer e entender o comportamento de mobilidade dos usuários dentro da rede para ser possível projetar e dimensionar redes com qualidade de serviço e melhorar a experiência do usuário. Com as informações de comportamento de mobilidade pode-se melhorar o provisionamento de recursos, direcionar o tráfego de maneira mais eficaz, dependendo do tipo de serviço e localidade do usuário, economizar energia de dispositivos ou ainda conseguir prever problemas de segurança e desempenho da rede. Neste trabalho, pretende-se analisar os registros de seis meses de conexão à rede Wi-Fi de um campus universitário, com aproximadamente 15 mil usuários. Com essas informações será criado um dataset para definir padrões de mobilidade e o tipo de acesso para tomada de decisões, para melhorar o desempenho da rede e gerenciar melhor seus recursos.

  • RENAN VILLELA OLIVEIRA
  • DETECÇÃO DE ATAQUES DE DDoS AO PLANO DE CONTROLE DE SDN UTILIZANDO APRENDIZADO DE MÁQUINA.

  • Data: 16 févr. 2023
  • Afficher le Résumé
  • O paradigma deSoftware Defined Networking(SDN) é considerado promissor para a inovação
    das tecnologias de redes de computadores. A arquitetura SDN separa o plano de dados do plano
    de controle, onde o controlador tem uma visão geral da rede. Segurança em redes é um assunto
    em constante discussão, pois diariamente surgem novas formas de ataques com objetivos di-
    versos. Em SDN não é diferente, muitos ataques deDistributed Denial of Service(DDoS) são
    realizados ao plano de controle de SDN, portanto, medidas de proteção devem ser desenvolvidas
    para detectar atividades maliciosas na rede. Apesar das redes SDN fornecerem forte controle
    sobre o tráfego, também oferecem novos problemas e desafios, pois, por exemplo, um ataque
    de DDoS a um controlador tem potencial para deixar toda a rede inoperante. Para identificar
    tráfego malicioso em SDN, neste trabalho, foram analisados e classicados os fluxos de entrada
    para detectar ataques de DDoS através de técnicas de aprendizado de máquina. Para identifi-
    car características cruciais no monitoramento de uma SDN, foram criadosdatasetsa partir da
    captura de tráfego legítimo e malicioso (DDoS) em SDN. Estesdatasetsforam utilizados na
    construção de modelos de aprendizado de máquina que, por sua vez, foram usados para classi-
    ficar os fluxos em legítimos ou maliciosos. Os experimentos de classificação de tráfego foram
    divididos em dois cenários, um com tráfego variável durante o tempo do experimento e outro
    com tráfego imutável para cada iteração.Os resultados obtidos mostraram que o algoritmo
    Naïve Bayesfoi mais assertivo na identificação dos ataques que os demais algoritmos (Gradient
    Boosting,Decision TreeeSupport Vector Machine). Para avaliar os resultados, foram utilizadas
    as métricasaccuracy,precision,recalleF-score.

2022
Description
  • DELVANI ANTONIO MATEUS
  • ACCESSIBILITY OF MOBILE APPS FOR VISUALLY IMPAIRED USERS: PROBLEMS ENCOUNTERED BY USER EVALUATION, EXPERT INSPECTIONS, AND AUTOMATED TOOLS.

  • Data: 16 déc. 2022
  • Afficher le Résumé
  • Mobile apps have grown considerably, supporting many everyday activities such as news reading, social media, and online banking. Mobile apps should be usable and accessible to everyone, including visually impaired people. Accessibility evaluation techniques are essential to identify accessibility problems and help to avoid problems that hinder access by people with disabilities. Different accessibility evaluation methods may be used in different stages of software development. These methods include approaches such as employing automated tools to detect specific issues in the source code and more comprehensive methods, such as user evaluation and expert inspections. Expert inspections and automated tools can help detect problems earlier in the development process, though they cannot cover all the problems visually impaired users encounter. However, knowing the types of accessibility problems encountered by each method is vital for developers, testers, and designers to allocate the different methods appropriately in different stages of the development cycle. This project aimed to compare the outcomes of automated evaluations, manual inspection and user evaluation methods applied to mobile apps focusing on visually impaired users. The study compared the results from different methods by comparing results from a systematic mapping of the literature and the analysis of user evaluations performed in a previous study with two mobile apps. The study compared the results from the usability evaluations of Saraiva and Receita Federal by nine users with visual impairment and 189 instances of problems in two applications. These results were compared to the automated evaluation of the two apps by the tools MATE (Mobile Accessibility Testing) and Accessibility Scanner. Next, the apps were inspected by two groups of professionals: 17 experts in different areas of software development (full-stack developers, testers and front-end developers) and ten specialists in Human-Computer Interaction (HCI) with previous experience with accessibility. The results showed a difference between the different accessibility evaluation methods. Inspections by HCI specialists and tests with users with disabilities found a greater diversity of types of problems. Automated tools showed limited performance in the detection of types of problems. In accessibility inspections, There is a difference between specialists in software development and specialists in HCI. The results showed a difference in the number of violations that specialists in software development find compared to HCI specialists. This study contributes to the understanding of how different methods can contribute to the accessibility evaluation of mobile apps, helping different stakeholders make decisions about when and how to apply different methods.

  • PRISCILLA DE SOUZA SILVA
  • ROTULAÇÃO DE DADOS PARA A TAREFA DE RECONHECIMENTO DE ENTIDADES NOMEADAS NO DOMÍNIO DA BEBIDA CACHAÇA.

  • Data: 25 nov. 2022
  • Afficher le Résumé
  • O Reconhecimento de Entidade Nomeada (NER) é a tarefa de identificar e classificar tokens em textos correspondentes a um conjunto de categorias pré-definidas, como nomes de pessoas, organizações e locais. Conjuntos de dados rotulados para essa tarefa são essenciais para treinar modelos de aprendizagem de máquina supervisionados. Apesar de existirem muitos conjuntos de dados rotulados com textos para a língua inglesa, na língua portuguesa eles são mais escassos. Este trabalho, portanto, contribui para a criação e avaliação de um conjunto de dados rotulados manualmente para a tarefa de NER, com textos escritos em português brasileiro, no domínio específico da bebida destilada chamada Cachaça. Essa é uma bebida popular no Brasil, e de grande importância econômica. Esse é o primeiro conjunto de dados NER no domínio de bebidas e pode ser útil para outros tipos de bebidas com categorias de entidades semelhantes, como vinho e cerveja. Descreve-se o processo de coleta de dados textuais, criação do conjunto de dados, chamado de cachacaNER, e sua avaliação experimental. Como resultado, foi criado um dataset contendo mais de 180.000 tokens rotulados em 17 categorias de entidades nomeadas especificas ao contexto da cachaça e categorias genéricas. A rotulagem obteve um alto valor de concordância entre os rotuladores, segundo a métrica Kappa de Fleiss. O tamanho do conjunto de dados, bem como o resultado de sua avaliação experimental, são comparáveis a outros conjuntos de dados em língua portuguesa, embora o deste trabalho tenha um número maior de categorias de entidades. Além da rotulação manual, também foi avaliada uma técnica de rotulação automática de entidades, com os dados do cachacaNER, a fim de propor uma rotulação mais rápida, com pouco trabalho manual. Como resultado, identificou-se que conjuntos de treinamento rotulados automaticamente a partir de exemplos de entidades nomeadas podem conduzir a um treinamento aceitável pra um modelo NER, considerando-se o custo da rotulação manual.

  • ARTHUR HENRIQUE SOUSA CRUZ
  • UM ESTUDO SOBRE O PROBLEMA DINÂMICO DE ROTEAMENTO DE VEÍCULOS.

  • Data: 30 août 2022
  • Afficher le Résumé
  • Nos últimos anos, o volume de entregas diárias aumentou de forma significativa, demandando ferramentas de apoio a decisão baseadas em algoritmos de otimização. Uma das questões mais relevantes nesse cenário é a definição de rotas de entrega com o objetivo de minimizar custos. Este problema é um clássico da otimização combinatória, conhecido como o Problema de Roteamento de Veículos (PRV). O problema conta com variantes, entre elas o Problema Dinâmico de Coleta e Entrega com Janelas de Tempo (PDCEJT). No PDCEJT, os pedidos são recebidos ao longo do dia durante a designação de rotas. Além disso, um pacote deve ser coletado em um ponto e entregue a um destino diferente. Por fim, a coleta ou entrega de cada ponto deve ser realizada em um determinado intervalo de tempo. Outras variantes são derivadas desse problema, como o PDCEJT/UR, que conta com a classificação de pontos como rurais e urbanos. Este trabalho tem inspiração em um caso real de uma empresa de logistíca, e propõe a adaptação de um algoritmo da literatura para a solução do PDCEJT. Além da solução do problema, descreve-se metodologias que facilitam a generalização de soluções para diferentes variantes do PDCEJT. No intuito de exemplificar as abstrações feitas, propõe-se uma abordagem para resolver o PDCEJT/UR. Experimentos são realizados para o PDCEJT e para o PCEJT, em que extensões da heurística de solução implementada são comparadas. A melhor variação é utilizada para a resolução do PDCEJT/UR. Os resultados apontam que a solução para o PDCEJT e sua adaptação para o PDCEJT/UR são igualmente eficientes.

  • BRUNO PIOVESAN MELCHIORI PERUZZA
  • ALGORITMOS PARA AGRUPAMENTO DE PEDIDOS EM LOTES EM ARMAZÉM DIVIDIDO EM ZONAS.

  • Data: 26 août 2022
  • Afficher le Résumé
  • A coleta de objetos em armazéns para atender pedidos é um processo rotineiro no comércio, sendo uma parte importante e de muito impacto nas vendas. Principalmente em compras que serão entregues posteriormente, como as on-line, a busca de objetos e a preparação do pedido podem ser bem planejados, garantindo qualidade e eficiência. Considerando um armazém com estrutura definida previamente, objetos alocados dentro dele organizados em prateleiras paralelas, gerando corredores entre elas, e uma lista de pedidos para atendimento, o foco é coletar todos os objetos de maneira a atender todos os pedidos com o menor tempo de coleta possível. Entre as estratégias para minimização de tempo de coleta, é considerado neste trabalho o agrupamento de pedidos em lotes. Neste caso específico, o armazém é dividido em zonas, cada funcionário é responsável por uma zona e a lista de pedidos é definida previamente. O objetivo deste trabalho é implementar algoritmos que resolvam o problema, utilizando os modelos matemáticos propostos e heurísticas desenvolvidas, considerando redução de tempo para coleta dos objetos, tentando alcançar uma solução ótima. Ao final, são apresentados os resultados obtidos, juntamente com a análise dos dados.
     
  • FÁBIO APARECIDO CÂNDIDO DA SILVA
  • USABILITY AND ORGANIZATIONAL FACTORS IN RADIOLOGY SYSTEMS: A STUDY WITH HEALTH PROFESSIONALS IN BRAZIL

  • Data: 26 août 2022
  • Afficher le Résumé
  • Medical systems have been increasingly important in medical practice and clinical interventions and are crucial for physicians and other health professionals to perform their routine activities in a hospital environment. Such systems include such as HIS (Hospital Information System), RIS (Radiology Information System) and PACS (Image Archiving and Communication System), for instance. In Radiology, for example, proper usability and alignment with the tasks of these systems are essential, as they often involve thorough analyses that require attention to detail and complex image manipulation techniques for diagnosis. The images generated and manipulated by radiology systems are essential assets to support diagnosis in the health area. However, these radiology systems may present usability problems in handling. Considering the complexity of the tasks and the effects that errors can have, usability problems can be harmful, as they compromise the efficiency of the process, generating incorrect diagnoses and delays in service and results. Despite some research on radiology systems in several countries, few studies report usability in small and medium-sized health facilities, especially in the Brazilian context. This study evaluated organizational factors and the usability of radiology systems in the Brazilian scenario and compared the findings with the results of usability evaluations in the literature. The issues identified in this study are essential to improve the interaction of health professionals in more complex activities. The study involved interviews with ten health professionals from different regions of Brazil and remote usability evaluations of a radiology system with six professionals. The study aims to fill gaps, such as identifying the challenges for designers and the interaction of radiology systems in Brazil. Interviews with radiology professionals resulted in five themes: ``How the characteristics of the radiology system affect usability for the user'', ``How situations or processes affect the characteristics of radiology professionals' tasks'', ``What influences the behavior of the radiology professional concerning their routine'', ``What determines a radiology professional's experience and knowledge'', and ``Radiology professionals deal with system failures and data loss risk''. These themes describe the factors that interfere in the radiology professional's routine and their interaction with radiology information systems. Usability testing resulted in 20 categories of usability issues organized into four themes: ``Visual Presentation'', ``Content'', ``Information Architecture'', and ``Interactivity''.The results consolidate a set of recommendations for the design and evaluation of radiology systems. They incorporate the aspects identified and related to the Brazilian context, the variety of availability of resources in health facilities, which are still limited in the sense of being based on textual descriptions of problems reported in the literature and not in detailed tests.

  • ADRIANA PRISCILA SANTOS CRUZ
  • UMA ABORDAGEM VISUAL PARA EVOLUÇÃO DE TEST SMELLS EM SOFTWARE JAVA

  • Data: 28 mars 2022
  • Afficher le Résumé
  • O teste de software é parte do ciclo de desenvolvimento de software, sendo o processo de executar as tarefas do sistema cujo objetivo principal é identificar se o software se comporta conforme foi especificado. O teste também tem como objetivo identificar defeitos no código produzido. Durante esse processo, os desenvolvedores e testadores podem incluir más escolhas de projeto ou implementação do código de teste, levando a inserção dos denominados test smells. Test smells são más escolhas de design ou de implementação do código de testes e sua presença pode o tornar ineficaz em encontrar bugs, gerando retrabalho e custos adicionais. Test smells podem dificultar a compreensão e manutenibilidade do código. Além disso, assim como qualquer artefato de software, os códigos de teste requerem a avaliação da qualidade e manutenção. A manutenção dos códigos de teste pode ocorrer devido a identificação de problemas no código e a evolução do código de produção. Ao longo da evolução do código de teste alguns test smells podem ser removidos e outros podem ser inseridos. Para visualizar a evolução de sistemas de software têm sido utilizadas técnicas de visualização de software, cujo objetivo é transformar o código de produção em uma representação visual para facilitar a sua compreensão. Apesar dessas técnicas contribuírem para visualizar a evolução de sistemas de software, essa abordagem não abrange os códigos de teste para visualização de test smells. Dessa forma, o objetivo desse trabalho é propor uma abordagem para visualizar a evolução dos códigos de teste em relação a presença de test smells, como se houve o aumento/diminuição de test smells e os possíveis autores pela sua inclusão. Foi proposta uma abordagem que definiu três estatrégias visuais (TSInstant, TSEvolution e TSAuthor) e uma ferramenta que implementa essa abordagem através de três técnicas de visualização de software (Graph View, Treemap View e Timeline View) para 21 tipos test smells. Essas visualizações podem ajudar os testadores a melhorar a qualidade do código de teste.

2021
Description
  • JOÃO PEDRO MOREIRA DE MORAIS
  • UMA ABORDAGEM EM CASCATA PARA PREDIÇÃO DE GÊNERO A PARTIR DE TEXTOS EM PORTUGUÊS

  • Data: 10 déc. 2021
  • Afficher le Résumé
  • A área de estudo e pesquisa denominada Caracterização Autoral, cujo objetivo é analisar um texto para inferir informações a respeito do seu autor, vem sendo cada vez mais útil para diferentes setores, tais como o forense, marketing e comércio eletrônico. Apesar do crescente interesse em pesquisas nessa área, a quantidade de técnicas e ferramentas apresentadas na literatura com foco na língua portuguesa é relativamente escassa quando comparada àquela disponível para outros idiomas. Desse modo, este trabalho contribui nessa área de estudo propondo e avaliando uma abordagem em cascata, que combina um módulo que utiliza um dicionário, uma heurística de gênero e um classificador, para a predição do gênero do autor de um texto escrito em português utilizando somente o conteúdo textual.

  • ARTHUR ALEXSANDER MARTINS TEODORO
  • UMA ABORDAGEM DE CLASSIFICAÇÃO DE CÂNCER DE PELE USANDO GAN E MECANISMO DE ATENÇÃO BASEADO EM ROI

  • Data: 30 nov. 2021
  • Afficher le Résumé
  • O câncer de pele é um problema de saúde mundial, tratando-se do tipo de câncer mais comum, sendo dividido em duas categorias, o câncer não melanoma, mais comum e menos letal, e o câncer melanoma, menos comum, porém, com uma grande taxa de mortalidade. O diagnóstico precoce é a melhor forma de combate ao câncer de pele, evitando métodos invasivos no câncer de pele não melanoma e aumentando a taxa de cura e a sobrevida no caso do câncer do tipo melanoma. Diversas técnicas de visão computacional estão sendo empregadas na área médica, a fim de auxiliar os profissionais com diagnóstico, recomendação de tratamento, entre outros. Um desses métodos é o uso de redes neurais convolucionais, também chamadas pela sigla CNN, para a classificação de imagens de lesões e tumores, com estudos demonstrando uma capacidade de acerto até maior que de médicos treinados. Entretanto, alguns problemas são encontrados quando se trata da classificação de imagens de lesão de pele, como o desbalanceamento do conjunto de imagens. Para isso, podem ser usadas diversas técnicas para a geração de imagens a fim de balancear o conjunto, porém, uma que tem ganhado destaque é o uso de redes generativas adversárias, também chamadas pela sigla GAN, que são capazes de gerar imagens sintéticas com alta qualidade baseado em um conjunto previamente usado em um processo de treinamento. Este trabalho tem como objetivo buscar métodos que levem a um aumento no desempenho de redes CNN para a classificação de lesão de pele. Para isso, este trabalho propõe uma arquitetura CNN baseada na rede EfficientNetB0, denominada EfficientAttentionNet, para classificação de lesões cutâneas, especificamente melanoma e não melanoma. Em primeiro lugar, o conjunto de dados da imagem original, da International Society for Digital Skin Imaging (ISDIS), é pré-processado para eliminar os pelos ao redor da lesão cutânea. Posteriormente, um modelo GAN gerou imagens sintéticas para equilibrar o número de amostras por classe no conjunto de treinamento. Um modelo U-net é usado para criar máscaras com a região de interesse da imagem. Finalmente, é apresentado o modelo EfficientAttentionNet proposto para classificar o câncer de pele usando mecanismos de atenção com a máscara. Os resultados mostraram que o modelo de classificação proposto atingiu resultados de alto desempenho, obtendo acurácia de 0,979, precisão de 0,945, recall de 0,995 e ROCAUC de 0,976, servindo como referência para pesquisas na área de classificação de lesões cutâneas.

  • JORGE SASSAKI RESENDE SILVA
  • AUTOMATICALLY GENERATED HEADERS AS TEXT-SKIMMING MECHANISMS FOR BLIND USERS USING SCREEN READING SOFTWARE IN UNMARKED WEB-BASED TEXTS.

  • Data: 23 nov. 2021
  • Afficher le Résumé
  • The evolution in information access caused by the Internet has expanded access to information for everyone. Consequently, the availability of information sources and teaching content on the Web has broadened access to knowledge. Still, people with disabilities face accessibility barriers. In this work, we focus on people with visual impairment and their problems when reading long documents. Even with assistive technologies such as screen readers, consulting the Web when seeking information can be exhausting for this group. They lack options for speed reading or skimming large amounts of text since these tools read texts aloud in sequence. The commands available in screen readers through shortcuts helped users create strategies when searching for information, such as increased reading speed and using webpage markup to navigate (e.g. headers or paragraphs). However, they often come at the cost of the cognitive load caused by the attention needed to understand and remember the information at high speeds. Navigating inside texts also proved to be a problem. Studies have shown that a common complaint of visually impaired people is having to create a text map to re-find information mentally. To counter these problems, we have conducted a systematic mapping to gather previous work that aimed to help screen reader users when using the Web and categorize them based on their proposed approach. The methods encountered were Content Filtering, Text Reduction, Navigation, Concurrent Speech, Auditory Overview and Recommendation Systems. Based on this analysis, we observed a lack of topicalization techniques and their effects on navigation for blind people. Thus, the goal of this work was to propose an algorithm to generate headers aiming to help users in information-seeking tasks automatically. The algorithm was divided into two tasks: segmenting a document into topic segments and labelling a text segment. We adapted the C99 segmenting algorithm to use BERT and improved error rates for long texts. Then, the study followed with the implementation of a labelling algorithm based on keywords, and labels are made of words from the text segment that were ranked according to repetition. We conducted a user study with 8 participants and a prototype composed of preprocessed texts 720-1131 words long to test the algorithm. Users had to answer questions based on the information in these texts for comparison in two scenarios: one with automatically generated headers and the other without. We measured the time taken in each text and the cognitive load participants perceived while completing it. A post-test interview was also conducted to gather feedback. Our analysis could not confirm our hypothesis significantly due to a small volunteer sample, but interviews indicated users benefited from the proposed tool. Either by helping navigate inside the text, or re-finding information, participants agreed they would like to have this tool in their screen readers. With this work, we provide design implications and alternatives to implement a plugin for the screen reader. 

  • MATHEUS SILVA FERREIRA
  • UMA ABORDAGEM VISUAL PARA APOIAR O GERENTE DE PROJETOS DE SOFTWARE A QUANTIFICAR O TRABALHO DOS DESENVOLVEDORES

  • Data: 26 août 2021
  • Afficher le Résumé
  • A complexidade inerente ao desenvolvimento de software motiva a utilização das práticas de gerenciamento de projetos. O Gerente de Projetos (GP) é o profissional responsável por executar as práticas de gerenciamento e uma de suas principais atividades é gerenciar as pessoas envolvidas no projeto. Essa atividade implica, entre outros aspectos, na montagem de equipes, reconhecimento pelo trabalho realizado por desenvolvedores e
    distribuição do conhecimento no projeto. Nesse sentido, para executar um bom gerenciamento de projetos, informações sobre o trabalho dos desenvolvedores podem ser valiosas. Dessa forma, diferentes estratégias foram propostas para fornecer tais informações ao GP, permitindo quantificar o trabalho realizado pelos desenvolvedores. Algumas dessas estratégias incluem a mineração de Sistemas de Controle de Versão (SCV) para obter informações e a aplicação de técnicas de visualização para apresentar os resultados ao GP. Apesar da existência dessas estratégias, ainda existem lacunas a serem exploradas, como considerar a evolução do software ao visualizar o quanto os desenvolvedores trabalharam, bem como fornecer a visualização de diferentes perspectivas, incluindo informações do projeto e do trabalho individual dos desenvolvedores em múltiplos níveis de granularidade. Neste trabalho, o objetivo é apoiar Gerentes de Projetos a compreender do trabalho dos desenvolvedores utilizando uma abordagem para visualização de medidas quantitativas aplicadas sobre informações mineradas de SCV. Para tanto, foi realizada uma pesquisa organizada em três etapas (Fundamentação, Construção e Avaliação). Na etapa Fundamentação, há o levantamento do estado da arte, proporcionando a identificação de diretrizes e lacunas deixadas pelas abordagens existentes. Na etapa Construção, há a elaboração da abordagem e sua implementação como uma ferramenta computacional. Na
    etapa Avaliação, há a verificação dos efeitos da abordagem proposta sobre a tarefa de quantificar o trabalho dos desenvolvedores. Os resultados do trabalho incluem: i) a organização das informações utilizadas para quantificar o trabalho dos desenvolvedores; ii) a definição da abordagem Developer Tracker; iii) a construção de Developer Tracker App, um apoio computacional para automatizar o uso da abordagem; iv) o relato de desafios
    encontrados para conduzir estudos experimentais no contexto da indústria de software; e iv) efeitos do uso da abordagem na compreensão de 16 gerentes de projetos a respeito do trabalho dos desenvolvedores. Em trabalhos futuros podem ser realizadas evoluções na abordagem e no apoio computacional para aumentar sua aderência na indústria de software.

  • MATHEUS SILVA FERREIRA
  • UMA ABORDAGEM VISUAL PARA APOIAR GERENTES DE PROJETOS DE SOFTWARE A COMPREENDER O TRABALHO DOS DESENVOLVEDORES.

  • Data: 26 août 2021
  • Afficher le Résumé
  • A complexidade inerente ao desenvolvimento de software motiva a utilização das práticas de gerenciamento de projetos. O Gerente de Projetos (GP) é o profissional responsável por executar as práticas de gerenciamento e uma de suas principais atividades é gerenciar as pessoas envolvidas no projeto. Essa atividade implica, entre outros aspectos, na montagem de equipes, reconhecimento pelo trabalho realizado por desenvolvedores e distribuição do conhecimento no projeto. Nesse sentido, para executar um bom gerenciamento de projetos, informações sobre o trabalho dos desenvolvedores podem ser valiosas. Dessa forma, diferentes estratégias foram propostas para fornecer tais informações ao GP, permitindo quantificar o trabalho realizado pelos desenvolvedores. Algumas dessas estratégias incluem a mineração de Sistemas de Controle de Versão (SCV) para obter informações e a aplicação de técnicas de visualização para apresentar os resultados ao GP. Apesar da existência dessas estratégias, ainda existem lacunas a serem exploradas, como considerar a evolução do software ao visualizar o quanto os desenvolvedores trabalharam, bem como fornecer a visualização de diferentes perspectivas, incluindo informações do projeto e do trabalho individual dos desenvolvedores em múltiplos níveis de granularidade. Neste trabalho, o objetivo é apoiar Gerentes de Projetos a compreender do trabalho dos desenvolvedores utilizando uma abordagem para visualização de medidas quantitativas aplicadas sobre informações mineradas de SCV. Para tanto, foi realizada uma pesquisa organizada em três etapas (Fundamentação, Construção e Avaliação). Na etapa Fundamentação, há o levantamento do estado da arte, proporcionando a identificação de diretrizes e lacunas deixadas pelas abordagens existentes. Na etapa Construção, há a elaboração da abordagem e sua implementação como uma ferramenta computacional. Na etapa Avaliação, há a verificação dos efeitos da abordagem proposta sobre a tarefa de quantificar o trabalho dos desenvolvedores. Os resultados do trabalho incluem: i) a organização das informações utilizadas para quantificar o trabalho dos desenvolvedores; ii) a definição da abordagem Developer Tracker; iii) a construção de Developer Tracker App, um apoio computacional para automatizar o uso da abordagem; iv) o relato de desafios encontrados para conduzir estudos experimentais no contexto da indústria de software; e iv) efeitos do uso da abordagem na compreensão de 16 gerentes de projetos a respeito do trabalho dos desenvolvedores. Em trabalhos futuros podem ser realizadas evoluções na abordagem e no apoio computacional para aumentar sua aderência na indústria de software.

  • SAMUEL TERRA VIEIRA
  • FERRAMENTA PARA ANÁLISE DA COBERTURA DE REDES MÓVEIS UTILIZANDO DIFERENTES MODELOS DE PROPAGAÇÃO.

  • Data: 29 juin 2021
  • Afficher le Résumé
  • À medida que a tecnologia móvel cresce, novos desafios relacionados também vêm surgindo. Redes móveis trazem o benefício da praticidade e mobilidade ao nosso cotidiano, porém, estações rádio base (ERBs) com um raio de alcance do sinal limitado, a qualidade de experiência do usuário é diretamente influenciada. Com esta restrição da área de cobertura, é interessante que as empresas busquem pontos estratégicos para a alocação ERBs, para que, possam atender ao maior número de clientes e ainda oferecer uma boa qualidade de serviço e experiência para os mesmos. O que comumente acontece é a não realização de um estudo detalhado da qualidade de sinal antes de realizarem a implantação de novas ERBs, resultando em locais sem cobertura de sinal e/ou até uma má qualidade do serviço. Nesse contexto, as ferramentas de planejamento de cobertura de rede têm um papel importante na determinação da localização e instalação de um transmissor de sinal. Na literatura atual, não existem trabalhos ou ferramentas, sejam eles de código livre ou fechado, que realizam uma sugestão de posicionamento de uma ERB juntamente com a análise do espectro de rádio frequência. Desta forma, para ajudar a solucionar o problema e tornar fácil a estimativa do quão boa será a alocação da antena, é implementado uma ferramenta para a análise da cobertura do sinal considerando a telefonia móvel oferecida em uma determinada região, o estudo se realizará considerando a região de Lavras/MG. Além de realizar a simulação, a ferramenta proposta tem recursos para sugerir um melhor posicionamento das ERBs utilizando a meta-heurística Simulated Annealing para fins de otimização dos pontos de instalação. Para isto, serão utilizados modelos de propagação disponíveis na literatura a fim de sugerir pontos estratégicos para a alocação das ERBs que garantam uma melhor cobertura, e consequentemente uma melhor qualidade de comunicações de telefonia.

  • OTÁVIO NEVES LARA
  • METHODOLOGICAL COMPARISON OF MACHINE LEARNING TECHNIQUES TO IMPROVE ADAPTABILITY AND REDUCE THE HANDOFF RATE IN COGNITIVE RADIOS.

     

  • Data: 30 avr. 2021
  • Afficher le Résumé
  • Uma grande quantidade de dispositivos conectados nas bandas Industriais, Científicas e Médicas (ICMs), em grandes centros urbanos, faz com que a interferência entre eles seja inevitável. Considerando isso, a Federal Communication Commicion (FCC) montou em 2002 uma equipe para melhorar a política de gerência do espectro eletromagnético: a Spectrum Policy Task Force (SPTF). Foi então que os Rádios Cognitivos (RCs) foram propostos como uma solução, permitindo que usuários secundários se conectem em frequências reservadas para usuários primários, com baixa interferência entre eles. Uma das funções dos RCs é a seleção automática de canais do espectro eletromagnético. Muitos algoritmos foram propostos para prever qual será o próximo canal, porém poucos se preocupam com a adaptabilidade geográfica do modelo e quantidade de handoffs que o rádio faz. Neste trabalho, propomos uma comparação metodológica entre os algoritmos Conditional Random Fields (CRF) e Q-Learning, para analisar a capacidade de adaptação dessas duas técnicas em locais geográficos distintos, mantendo a precisão e uma baixa taxa de handoff. Testando nas frequências do Wi-Fi o CRF se mostrou em média mais adaptativo, por considerar uma janela temporal, com 97,6% de adaptabilidade contra 95,68% do Q-Learning. Ademais, a taxa de handoff do CRF permaneceu inferior a 0,1% em todos locais e frequências, contra uma média de 5,8% do Q-Learning.

  • VICTOR GRUDTNER BOELL
  • IDENTIFICAÇÃO DE TRÁFEGO MALICIOSO EM REDES SDN COM TÉCNICAS DE INTELIGÊNCIA COMPUTACIONAL.

  • Data: 28 avr. 2021
  • Afficher le Résumé
  • A quantidade de ataques cibernéticos vem aumentando e tornando-se cada vez mais complexos. Assim, é necessário adotar medidas de segurança para a proteção dos ativos de informática. Para tomar uma decisão, é necessária uma grande quantidade de informações. Essas informações são obtidas do tráfego de dados e dos equipamentos da rede e, mesmo com as informações obtidas, é possível que os ataques mais sofisticados passem despercebidos aos olhos dos administradores mais experientes e das medidas de segurança como firewalls e antivírus. A tecnologia de redes definidas por software (SDN - Software Defined Network) permite ter uma visão completa da rede. Além disso, o processamento do tráfego pode ser feito por meio de um módulo externo ao controlador para criar as regras que definem os caminhos dos pacotes na rede. Este trabalho pretende utilizar as características da tecnologia SDN para monitorar a rede afim de obter dados dos equipamentos e classificar o comportamento do tráfego anômalo utilizando inteligência artificial (IA - Inteligência Artificial). O resultado do processamento será usado para criar regras para o controlador da rede mitigar os problemas de segurança.

  • LUCAS TIMOTEO DA SILVA
  • PLATAFORMA PARA AFERIÇÃO E ANÁLISE DE SATISFAÇÃO DE CLIENTES BASEADO EM CONTEXTO COM APLICAÇÃO DE INTELIGÊNCIA ARTIFICIAL.

  • Data: 27 avr. 2021
  • Afficher le Résumé
  • Com a ascensão do modelo de negócios orientado à serviços, torna-se cada vez mais importante para as organizações assegurar requisitos de qualidade na prestação dos seus serviços. O objetivo deste trabalho é apresentar uma nova plataforma, que auxilie as organizações na construção e aplicação de pesquisas de satisfação de clientes, levando em consideração o contexto do consumidor. Com a utilização de diferentes técnicas computacionais de Inteligência Artificial (IA) e Processamento de Linguagem Natural (PLN) a ferramenta oferece sugestões de questões durante a construção de pesquisas. Técnicas de Context Aware Computing (CAC) aplicadas permitem ainda, que a plataforma leve em consideração o contexto do consumidor para determinar qual melhor questão e momento para aplicação. Por fim, destaca-se o resultado positivo na perspectiva do consumidor, obtido através de um experimento realizado em uma Biblioteca Universitária.

  • LUCAS TIMOTEO DA SILVA
  • PLATAFORMA PARA AFERIÇÃO E ANÁLISE DE SATISFAÇÃO DE CLIENTES BASEADO EM CONTEXTO COM APLICAÇÃO DE INTELIGÊNCIA ARTIFICIAL

  • Data: 27 avr. 2021
  • Afficher le Résumé
  • Com a ascensão do modelo de negócios orientado à serviços, torna-se cada vez mais importante para as organizações assegurar requisitos de qualidade na prestação dos seus serviços. O objetivo deste trabalho é apresentar uma nova plataforma, que auxilie as organizações na construção e aplicação de pesquisas de satisfação de clientes, levando em consideração o contexto do consumidor. Com a utilização de diferentes técnicas computacionais de Inteligência Artificial (IA) e Processamento de Linguagem Natural (PLN) a ferramenta oferece sugestões de questões durante a construção de pesquisas. Técnicas de Context Aware Computing (CAC) aplicadas permitem ainda, que a plataforma leve em consideração o contexto do consumidor para determinar qual melhor questão e momento para aplicação. Por fim, destaca-se o resultado positivo na perspectiva do consumidor, obtido através de um experimento realizado em uma Biblioteca Universitária.

  • ROBSON VITOR MENDONÇA
  • CARACTERIZAÇÃO DE TRÁFEGO DE INTRUSÕES POR MEIO DE ALGORITMO DE APRENDIZAGEM PROFUNDA.

  • Data: 16 avr. 2021
  • Afficher le Résumé
  • Algoritmos de aprendizagem de máquina, com destaque aos de aprendizado profundo, estão sendo aplicados em diversas áreas de conhecimento, como processamento de imagem, vídeo, voz, texto e análise de tráfego de rede de computadores. As redes de computadores e os serviços ofertados aos usuários em geral tem atraído a atenção de invasores, gerando um aumento significativo de danos potenciais a tais serviços. Para resolver tal problema, Sistemas de Detecção de Intrusão, são utilizados na prevenção aos ataques, porém, ainda há falhas na detecção, principalmente como ataques do tipo zero-day. Neste contexto, este trabalho propõe um modelo de aprendizado profundo, denominado Tree-CNN (SRS), que efetua detecções de tráfegos anômalos, aumentando a acurácia na classificação de ataques DDoS, Infiltration, Web e Brute force, citados como os principais ataques a redes de computadores. Para tal, os resultados obtidos com o modelo proposto foram comparados aos resultados obtidos com os algoritmos Naive Bayes, Random Forest, Decision Tree, Support Vector Machine, Multilayer Perceptron, Convolutional Neural Networks e Deep Belief Networks. Uma base de tráfego capturado em uma universidade foi utilizada para treinamento e teste do modelo Tree-CNN (SRS). No tráfego capturado, analisou-se algumas características dos ataques mais comuns, usando técnicas de seleção de atributos e Análise de Componentes Principais para redução de dimensionalidade.

  • UBIRATAM LISBOA NONATO GEMA
  • MC PAX-MAC: PROTOCOLO CROSS-LAYER ANYCAST ASSÍNCRONO MULTICANAL PARA RSSFS

  • Data: 8 avr. 2021
  • Afficher le Résumé
  • As redes de sensores sem fio empregam ciclos de trabalho para economizar energia, com o custo
    do aumento da latência no encaminhamento de mensagens. Protocolos cross-layer que utilizam
    comunicação anycast, conseguem uma redução de latência em RSSF assíncronas que operam
    em ciclos de trabalho. Preâmbulos são enviados a fim de encontrar o nó do próximo salto,
    que é selecionado a partir de um grupo de nós candidatos ao próximo salto (FCS -forwarding
    candidate set). Este trabalho propõe MC PAX-MAC, um protocolo multicanal baseado no PAXMAC
    que emprega múltiplas frequências no canal, para o encaminhamento de mensagens na
    rede, diminuindo ainda mais a latência para economia de energia. Para identificar a rota até o
    destino o MC PAX-MAC contará com uma frequência no canal para o envio do preâmbulo antes
    dos dados. Os dados por sua vez serão enviados posteriormente em uma frequência diferente
    no canal. Dessa forma a propagação dos preâmbulos não necessita ser interrompida mesmo se a
    mensagem se aproximar do nó que está transmitindo o preâmbulo e haverá um ganho energético
    com a diminuição da latência.

  • WESLEY HENRIQUE BATISTA NUNES
  • ALGORITMOS HEURÍSTICOS PARA O PROBLEMA DE NESTING COM ROTAÇÕES LIVRES.

  • Data: 30 mars 2021
  • Afficher le Résumé
  • O problema de corte e empacotamento de peças irregulares, ou problema de Nesting, visa encontrar a melhor posição de peças dentro de uma faixa, tentando minimizar a altura utilizada (e, consequentemente, o espaço utilizado pelas peças). É grande a relevância este problema, visto que o corte e o empacotamento de peças ocorrem no contexto de indústrias de móveis, têxteis e de calçados, entre outras. O problema abordado consiste em um âmbito bidimensional com peças convexas e não convexas, com rotação livre. Nosso objetivo é conseguir responder à seguinte pergunta de pesquisa: “Existe alguma forma de melhorar a eficiência da resolução do problema de Nesting bidimensional com rotações livres, seja por resolução de um modelo ou por heurísticas?". Buscando responder a esta pergunta, foram implementadas inicialmente cinco regras de posicionamento, cinco regras de ordenação e duas regras de rotação. Foram propostas vinte e cinco heurísticas construtivas usando, cada uma, combinações de uma regra de posicionamento, uma de ordenação e ambas de rotação. Os resultados computacionais feitos com doze instâncias da literatura indicaram que, dentre estas, as que usam duas regras de posicionamento (chamadas α e β) se destacaram. Em particular, uma delas obteve resultados melhores (apesar de similares às demais). Também foi implementada uma heurística chamada de Heurística de Múltiplos Posicionamentos e um Algoritmo Genético, que utilizam a combinação dessas duas regras de posicionamento que se destacaram. Após uma comparação dentre os métodos propostos, foi possível perceber que a Heurística de Múltiplos Posicionamentos obteve resultados melhores em oito das doze instâncias testadas. Depois de definido qual nosso melhor método, comparamos o mesmo com os resultados presentes na literatura. Os resultados da abordagem foram promissores, superando em três das oito instâncias comparadas com os resultados da literatura.

  • DAVI RIBEIRO MILITANI
  • APRIMORAMENTO DE UM ALGORITMO DE ROTEAMENTO BASEADO EM APRENDIZADO POR REFORÇO: UM ESTUDO DE CASO USANDO VOIP.

  • Data: 28 janv. 2021
  • Afficher le Résumé
  • A capacidade do canal de transmissão, a capacidade de processamento dos roteadores e os algoritmos de roteamento são alguns dos principais fatores que impactam diretamente o desempenho de uma rede de computadores. Enquanto os parâmetros de rede, como perda de pacote, taxa de transferência e atraso, afetam a qualidade da experiência dos usuários em diferentes serviços multimídia. Os algoritmos de roteamento são responsáveis por escolher a melhor rota entre um nó de origem e um destino. Porém, algoritmos de roteamento convencionais não consideram o histórico de dados da rede na tomada de decisão, por exemplo, sobrecarga ou falhas recorrentes nos equipamentos. Portanto, espera-se que algoritmos de roteamento baseados em aprendizado de máquina que utilizam o histórico da rede para tomada de decisão apresentem algumas vantagens. No entanto, um algoritmo de roteamento baseado na técnica de aprendizado por reforço (Reinforcement Learning, RL) pode necessitar de cabeçalhos de mensagens de controle adicionais. Nesse contexto, esta pesquisa apresenta um protocolo de roteamento aprimorado baseado em RL, denominado e-RLRP, no qual a sobrecarga de mensagens de controle é reduzida. Especificamente, um ajuste dinâmico no intervalo da mensagem Hello é implementado para compensar a sobrecarga gerada pelo uso de RL. Diferentes cenários de rede ad-hoc são implementados nos quais os parâmetros de desempenho da rede, como perda de pacotes, atraso, taxa de transferência e sobrecarga, são obtidos. Além disso, um cenário de comunicação Voice Over IP (VoIP) é implementado, no qual o algoritmo E-model é usado para prever a qualidade da comunicação. Para comparação de desempenho, são usados os protocolos OLSR, BATMAN e RLRP. Resultados experimentais mostram que o e-RLRP reduz a sobrecarga da rede em relação ao RLRP e supera na maioria dos casos testados todos esses protocolos, considerando os parâmetros de rede e a qualidade do VoIP.

  • ARTHUR ROBERTO MARCONDES
  • UMA ABORDAGEM PARA ATUALIZAÇÃO DE FORKS FRENTE AO PROJETO ORIGINAL.

  • Data: 22 janv. 2021
  • Afficher le Résumé
  • Diversos projetos de software se iniciam a partir de um projeto já existente. Essa prática, no ecossistema de Sistemas de Controle de Versão (VCS), é denominada fork. Por exemplo, o projeto Bootstrap, inicialmente desenvolvido no Twitter, possui hoje mais de 68 mil forks, o que indica que vários projetos se iniciaram a partir do código-fonte do Bootstrap em um certo instante e estão sendo customizados. O problema se dá quando tais projetos customizados querem obter as atualizações do projeto original, i.e., novas features, correção de bugs, etc. Essa mesclagem do código-fonte do projeto original com o projeto customizado normalmente gera conflitos que necessitam de intervenção humana para resolução. Mais importante, a resolução desses conflitos pode não ser trivial e representar uma tarefa árdua para desenvolvedores. Esta dissertação de mestrado, portanto, propõe uma abordagem para atualização de forks frente ao projeto original onde features são modularizadas, documentadas, rastreáveis e podem ser reutilizadas. Afirma-se que essa tarefa não pode mais ser realizada de uma forma ad hoc. De forma sucinta, ao invés de alterar o corpo de um método foo do projeto original, o desenvolvedor o implementa localmente e especifica, por meio de uma das dez instruções de uma DSL (Linguagem de Domínio Específico) proposta, algo como “substitua o método foo pela implementação local”. Uma ferramenta que automatiza a abordagem proposta foi desenvolvida para conduzir uma avaliação real em um projeto de software de grande porte frequentemente atualizado frente ao seu projeto original. Por meio dessa avaliação constatou-se que a abordagem aplica-se a cenários reais e evita conflitos de mesclagem. Avaliou-se também a perspectiva de desenvolvedores desse projeto quanto à abordagem proposta, que se mostrou positiva e contribuiu no planejamento de trabalhos futuros.

2020
Description
  • OTÁVIO DE FARIA OLIVEIRA
  • ACCESSIBILITY IN THE DESIGN OF MULTIMODAL INTERACTIVE SMART HOMES FOR VISUALLY IMPAIRED PEOPLE.

  • Data: 17 déc. 2020
  • Afficher le Résumé
  • Technological solutions have increasingly been incorporated into our daily lives and our homes. Such technologies have included smart devices and more advanced appliances, including equipment supporting IoT (Internet of Things). Smart homes consist of home control technologies that seek to automate daily activities, such as turning on lights and controlling equipment. Smart homes have the potential to provide greater accessibility to perform tasks by people with disabilities.

    Among these people, visually impaired people substantially benefited by smart homes.
    With smart homes, people with visual impairments can obtain detailed information about the
    environment and easier control of activities. Considering the limitations in the use of visual
    elements, multimodal interfaces can further improve the accessibility of smart homes to people
    with visual impairments. With diverse modes of interaction, the system user can adapt the
    controls to users’ needs and provide for a better experience. Thus, this project aimed to explore
    the multimodality of interaction in smart homes accessible to people with visual impairments,
    to extract design recommendations for the development of smart home interfaces. For that, the
    research followed the methodology of Quiñones et al. to generate the design recommendations.
    The research encompassed three data sources to inform the process of generating the recommendations:
    1) a systematic mapping of studies about the accessibility of smart homes to people
    with visual impairment; a survey of requirements for smart home systems through awareness
    videos and interviews with visually impaired people; and exploratory usability evaluation on a
    prototype smart home with ten visually impaired users. The results of the mapping study revealed
    a low number of studies involving exclusively visually impaired users, in addition to the
    lack of guidelines for the development of smart homes. The requirements survey revealed the
    obstacles and challenges encountered by people in their daily activities. Several appliances do
    not have accessibility for use, which makes users find it difficult to use. It also highlighted the
    preferences and desires with smart home technologies, such as low cost, basic accessibility and
    ease of learning. The results of the usability evaluation of the prototype showed which practices
    and strategies allowed the user to have a better user experience. They also demonstrated
    the need for systems with minimalist, self-explanatory interfaces and navigation shortcuts for
    users. With the data from these studies, it was possible to extract eight design recommendations
    relevant to the development of multimodal smart homes for people with visual impairments.
    The recommendations defined in this study are of great importance to assist in the development
    of more accessible multimodal applications for the control of smart homes by people with visual
    impairments.

  • LEONARDO FILIPE DA SILVA
  • AVALIAÇÃO DE PADRÕES DE DESIGN DE INTERAÇÃO EM APLICATIVOS MÓVEIS PARA USUÁRIOS IDOSOS.

  • Data: 16 déc. 2020
  • Afficher le Résumé
  • Os governos de diversas esferas têm se mobilizado a fim de implementar serviços de governo
    eletrônico para os seus cidadãos. Esse esforço é feito na intenção de oferecer acesso de forma
    menos burocrática e mais rápida aos serviços e as informações governamentais. No entanto,
    uma estratégia tão abrangente pode se tornar problemática e potencialmente marginalizante
    para cidadãos com acesso ou habilidades limitadas. Os idosos, em especial, estão em número
    crescente, e possuem necessidades específicas devido ao declínio em suas capacidades físicas e
    cognitivas provenientes do envelhecimento. Concomitantemente, a onipresença dos aplicativos
    móveis requerem um aperfeiçoamento frequente do processo de design de interface para usuários,
    na qual o uso de padrões de design de interação pode facilitar a documentação e o reuso de
    soluções já comprovadas e recorrentes no processo de construção destas interfaces, que podem
    contribuir também com aplicações de governo eletrônico. Analisar os aspectos de usabilidade
    dos padrões de design de interação móvel no contexto de sistemas de governo eletrônico pode
    contribuir no que diz respeito a otimizar processos e desenvolver projetos de sucesso para usuários.
    Considerando as particularidades do contexto móvel, o aumento da população envelhecida
    e a falta de conhecimento sobre a adequação de padrões de design de interação em aplicativos
    governamentais para usuários mais velhos, identifica-se a relevância de pesquisas para aprofundar
    no conhecimento sobre este contexto. O objetivo deste estudo foi de elaborar um conjunto
    de recomendações para utilização de padrões de design de interação em aplicativos móveis de
    governo eletrônico com foco em usuários mais velhos e idosos. O estudo contou com os seguintes
    passos metodológicos: 1) levantamento de padrões de design de interação para aplicativos
    móveis baseados na análise de 1162 estudos da literatura; 2) aplicação de um survey com 66
    adultos mais velhos e idosos, elencando questões acerca do uso e da percepção desses em relação
    à internet e os serviços do governo; 3) análise de aplicativos do governo brasileiro para
    identificação de padrões de design de interação que sejam implementados; 4) testes de usabilidade
    de uma amostra com cinco aplicativos de governo eletrônico com usuários idosos para
    identificação de problemas em suas interfaces; 5) análise dos problemas de usabilidade em relação
    aos padrões de design de interação; e por fim 6) construção de recomendações sobre os
    padrões de design de interação que auxilie no desenvolvimento das interfaces dos aplicativos de
    governo eletrônico para usuários idosos. Como resultado, o survey obteve informações sobre o
    uso e a percepção dos cidadãos mais velhos sobre o domínio do governo eletrônico e da internet,
    incluindo a onipresença de dispositivos móveis e da internet, baixo nível de alfabetização em
    TICs entre os idosos e alta taxa de uso de serviços governamentais em geral. No mapeamento
    sistemático, 336 padrões de design de interação móvel foram levantados em 23 estudos. Nos
    testes de usabilidade de aplicativos do governo brasileiro, um total de 134 problemas de usabilidade,
    74 dos quais relacionados a padrões; e, por fim, foram estabelecidas 44 recomendações
    de usabilidade relacionadas a 15 padrões de design de interação. As contribuições obtidas tem
    potencial para melhorar a implementação de padrões de design de interação móvel, mitigar barreiras
    de usabilidade em aplicações governamentais e promover uma melhor experiência para
    usuários idosos.

  • MALLÚ EDUARDA BATISTA
  • UMA ABORDAGEM HÍBRIDA PARA DETECÇÃO DE CÓDIGO CLONADO EM LINHAS DE PRODUTOS DE SOFTWARE.

  • Data: 10 déc. 2020
  • Afficher le Résumé
  • Linha de Produtos de Software (LPS) corresponde a sistemas de software que compartilham um conjunto comum de funções (comunalidades) que foram desenvolvidas adotando uma base de ativos comum, acrescidas de variações (variabilidades) que são importantes características para diferir os produtos de uma mesma família de LPS. Códigos clonados adentram o escopo de desenvolvimento de sistemas de software por diversas razões, como copiar e colar, reutilizar código, adicionar funções e aumento e derivação de dados. Dada a existência de quatro Tipos de clones, sendo eles classificados quanto a sua semelhança sintática (Tipos 1, 2 e 3) ou semântica (Tipo 4), tem-se vários relatos da ocorrência dos mesmos em sistemas orientados a objetos cuja relações estão diretamente ligadas a qualidade e a manutenibilidade de software. No contexto de desenvolvimento de LPS, é possível detectar a existência de código clonado e efetuar alterações necessárias para que esse código não seja propagado para outros produtos originários dessa LPS. Neste trabalho de Mestrado, o objetivo é abordar como detectar clonagem de código em LPS, apresentando uma proposta de abordagem híbrida de detecção de clones de código dos Tipos 1 e 2 em LPS. Tal abordagem é baseada na construção de gráfico de dependências utilizando a AST e consiste na utilização de técnicas para análise estática de código, sustentada pela análise de sequência de chamadas de métodos e na análise estrutural de assinaturas de métodos. Para que se possa (semi) automatizar essa proposta de abordagem, foi implementado um apoio computacional (plug-in para a plataforma Eclipse IDE) e realizada a avaliação dessa proposta, por meio da avaliação interna e externa onde foram mensurados os valores da precisão e recall na utilização desse apoio e realizada a comparação com outra ferramenta de detecção de clones. Os resultados obtidos mostram uma alta precisão e confiabilidade na utilização da ferramenta desenvolvida para detectar clones em LPS orientada a característica além da comparação dos clones obtidos em relação a ferramenta CPD do PMD.

  • CAIRO APARECIDO CAMPOS
  • RHBS: ROTEAMENTO HIERÁRQUICO BASEADO EM SETORES PARA REDES VEICULARES

  • Data: 30 nov. 2020
  • Afficher le Résumé
  • Em redes veiculares ad hoc, uma das maiores dificuldades encontradas é manter a comunicação
    estável entre os veículos. A alta mobilidade e topologia dinâmica dos veículos interrompem as
    rotas estabelecidas entre dois veículos em comunicação. Para tentar minimizar esse problema,
    um grande número de protocolos de roteamento foram desenvolvidos e classificados de acordo
    com suas propriedades. Entre eles, os protocolos baseados em cluster e os protocolos geográficos
    ganharam destaque. Essas duas classes de protocolos, em geral, permitem um menor
    overhead de mensagens de controle e um menor tempo de latência. No entanto, nem sempre
    estão adaptados às características únicas das cidades. Visando um melhor desempenho para
    o ambiente urbano, este trabalho propõe o protocolo de Roteamento Hierárquico Baseado em
    Setores (RHBS). Neste protocolo cada cluster é um setor delimitado por um conjunto de ruas
    que possuem estacionamentos. Os veículos estacionados nestes estacionamentos formam um
    backbone que interligam todos os setores. O backbone é utilizado para rotear de forma geográfica,
    mensagens de controle e dados. Em cada setor há também um veículo estacionado com
    a função de Cluster Head (CH). O CH recebe a posição dos veículos moveis do seu setor e
    fornece a posição de um veículo quando requisitada. Além deste veículo de status especial, há
    também um veículo estacionado com o status de Cluster Head de Segundo Nível (CH2) próximo
    ao centro da área geográfica onde se localiza os setores. Este veículo recebe tabelas de
    atualização dos CHs e portanto, conhece todos os veículos em movimento em cada setor. O
    CH2 também é consultado quando a posição de um veículo não é conhecida por um CH. No
    RHBS, quando um veículo móvel de origem recebe a posição de um veículo móvel de destino
    por meio de um CH ou CH2, envia uma mensagem de dados em direção a esta posição. O
    RHBS após seu desenvolvimento foi comparado com o protocolo reativo Ad-hoc On-Demand
    Distance Vector (AODV) mostrando um menor tempo de latência e uma menor quantidade de
    mensagens em quatro das cinco comunicações avaliadas.

  • MICHAEL TADEU ALVES DE OLIVEIRA
  • ESPECIFICAÇÃO DE REQUISITOS DE SOFTWARE UTILIZANDO PADRÕES NO CONTEXTO DA ENGENHARIA DE REQUISITOS ORIENTADA A ASPECTOS

  • Data: 27 nov. 2020
  • Afficher le Résumé
  • Um interesse de software consiste em um conjunto de requisitos que devem colaborar para um mesmo objetivo. Quando um interesse envolve requisitos que se encontram entrelaçados com requisitos de outros interesses, tem-se um “Interesse Transversal”, e a modularização inadequada desse tipo de interesse pode dificultar o desenvolvimento e a evolução do software. A área de Engenharia de Requisitos Orientada a Aspectos (EROA) oferece estratégias mais adequadas para identificação, classificação, representação e composição de Interesses Transversais. Um problema comumente relatado nos estudos experimentais sobre abordagens para EROA é a baixa efetividade (cobertura e precisão) proporcionada por elas, relacionadas à identificação e à classificação de interesses do software. Uma das possíveis causas para isso é a falta de preocupação com a qualidade do Documento de Requisitos de Software (DRS) antes da execução das atividades de identificação e classificação de interesses, que consiste na descoberta dos interesses a partir dos requisitos funcionais e não-funcionais, classificando-os em interesses base ou ITs. Nesse sentido, o objetivo deste trabalho foi investigar se o uso de Padrões para Requisitos de Software (PRS) para escrever DRS pode contribuir para a melhoria da efetividade da identificação e classificação de interesses em sistemas de software. Um PRS é um artefato que fornece orientações sobre como especificar requisitos funcionais, não-funcionais, de forma que possam ser reusados em contextos e problemas bem definidos. Para isso, realizou-se uma pesquisa documental para explorar o estado da arte sobre PRS e abordagens para EROA. Desenvolveu-se uma abordagem para transformar requisitos em forma de casos de uso para texto narrativo, criou-se PRS para CRUD, Segurança, Usabilidade, Desempenho e Portabilidade, bem como um apoio computacional para apoiar a execução da atividade de identificação e classificação de interesses de software. Realizou-se estudos experimentais com DRS de sistemas de software acadêmicos e reais, comparando a efetividade da ferramenta computacional com o uso de PRS e sem o uso de PRS e verificando os resultados por testes estatísticos e as medidas de cobertura, precisão e F-Measure. Os resultados indicaram que a utilização de PRS para identificação e classificação de interesses de software contribui significativamente para o aprimoramento da cobertura, precisão e F-Measure do processo de identificação e classificação de interesses a partir de requisitos de software, melhorando a eficiência e eficácia na atividade para EROA.

  • LEONARDO FERNANDES BERNARDES
  • DESENVOLVIMENTO DE UM ALGORITMO DE CÓDIGO FEC ADAPTATIVO PARA MELHORAR A QUALIDADE PERCEPTUAL DE UMA COMUNICAÇÃO DE VOZ EM REDES SEM FIO

  • Data: 27 nov. 2020
  • Afficher le Résumé
  • A perda de pacotes é um dos fatores que tem um maior impacto na degradação da qualidade
    percebida nas chamadas de voz sobre protocolos de Internet (VoIP). Existem diferentes técnicas
    para melhorar a qualidade de transmissão, entre elas a codificação do canal - Forward
    Error Correction (FEC). O FEC é uma técnica de controle de erros utilizada para fornecer uma
    transmissão de dados robusta através de canais imperfeitos, especialmente em redes sem fio,
    adicionando redundância aos dados. Com isso é possível diminuir as perdas de informação no
    sistema de transmissão, garantindo uma maior qualidade do sinal no ponto de recepção. Neste
    trabalho, implementa-se um cenário de simulação que possibilita estimar a qualidade perceptual
    da voz, através do algorítimo da Recomendação ITU-T P.862, quando diferentes códigos
    FEC são implementados individualmente em um sistema de comunicação sem fio submetido
    a diferentes níveis de ruído. Posteriormente, com base nos resultados obtidos, um algorítimo
    capaz de alternar de maneira dinâmica entre diferentes configurações de códigos Reed Solomon,
    durante a transmissão das amostras de voz é proposto, assim, a variação das condições da
    rede são consideradas. Os resultados experimentais obtidos indicaram um significante ganho
    na qualidade perceptual do sinal de voz, ao utilizar o modelo de algorítimo adaptativo proposto,
    considerando o modelo de canal AWGN com variações do nível de ruído. Além disso, o modelo
    também foi capaz de encontrar um equilíbrio entre a qualidade da transmissão e minimização
    do consumo de largura de banda necessária.

  • ALEXANDRE HENRIQUE TEIXEIRA DIAS
  • TOWARD GREEN CLOUD COMPUTING ENVIRONMENT BY MEANS OF VIRTUAL MACHINES CONSOLIDATION

  • Data: 27 nov. 2020
  • Afficher le Résumé
  • A necessidade por recursos computacionais popularizou o uso da computação em nuvem. Através
    do uso da virtualização, gerentes de centros de dados em nuvem podem reduzir o Custo
    Total de Propriedade e melhorar a utilização de recursos. Embora vários custos possam ser
    reduzidos por meio da virtualização, o consumo de energia requisitado por todo o ecossistema
    dos centros de dados contabilizou uma quantia substancial de toda eletricidade consumida no
    mundo. Isto também implica em altos níveis de emissões de CO2 que, juntamente com o consumo
    de energia, devem ser reduzidos em prol da computação verde. Este problema pode ser
    mitigado pela consolidação de máquinas virtuais em um número reduzido de máquinas físicas
    a fim de desligar as ociosas. Contudo, o uso de consolidação de máquinas virtuais para reduzir
    o consumo de energia pode afetar os Objetivos de Nível de Serviço quando o equilíbrio entre
    energia e desempenho é levado em conta. Este trabalho propõe uma Revisão Sistemática da
    Literatura que almeja prover uma visão geral sobre consolidação de máquinas virtuais. Além
    disso, o trabalho estuda o uso de um Programa Linear Inteiro Misto durente a etapa de alocação
    de máquinas virtuais da consolidação. Os experimentos foram simulados usando dados reais
    de utilização de CPU e os modelos foram resolvidos usando dois resolutores comerciais. Os
    resultados mostram que o modelo proposto otimizado pelo Gurobi, em geral, dispara menos
    migrações para o simulador. Contudo, como muitas migrações disparadas ao simulador são
    factíveis, existe um aumento no consumo de energia e degradação de performance devido ao
    overhead causado pelas migrações.

  • HÉRLON MANOLLO CÂNDIDO GUEDES
  • EXPLORAÇÃO CONTEXTUAL DE FÓRMULAS MATEMÁTICAS NA WEB PARA PESSOAS COM DEFICIÊNCIA VISUAL EM LEITOR DE TELAS DE CÓDIGO ABERTO.

  • Data: 26 nov. 2020
  • Afficher le Résumé
  • A evolução de recursos tecnológicos tem ampliado o acesso à informação para todos,
    principalmente para pessoas com deficiência. Por este motivo, a disponibilização de conteúdo
    didático digital como e-books, PDFs e materiais na Web tem ampliado o alcance ao conhecimento.
    Entretanto, algumas barreiras ainda persistem em relação ao acesso de pessoas com deficiência
    visual à informação. Mesmo com o avanço tecnológico e disponibilização de diversos
    materiais em vias digitais com possibilidade de leitura por leitores de tela, conteúdos específicos
    como a matemática ainda são causa de problema para usuários destes sistemas. Devido
    à complexidade das notações matemáticas e sua natureza abstrata, a matemática é uma ciência
    que apresenta desafios para compreensão por meios que não sejam visuais. Sendo assim, a leitura
    de conteúdo matemático por meio de leitores de tela atualmente enfrenta problemas como
    ambiguidade, compreensão de fórmulas longas e identificação de elementos específicos. Além
    disso, ainda que com problemas de leitura, poucos são os leitores de tela que oferecem suporte
    à leitura deste tipo de conteúdo. No caso da língua Portuguesa, a situação ainda é mais grave,
    com nenhum suporte atualmente para leitura de fórmulas matemáticas nos leitores de tela comerciais
    e livres de ampla utilização. A compreensão da leitura de fórmulas por meio de síntese
    de voz ainda apresenta desafios pela falta de possibilidade de obter visão geral sobre os conteúdos
    e pela limitação da natureza sequencial da síntese de voz. Desta forma, este trabalho se
    propôs a implementar e avaliar um plugin para leitura e exploração de fórmulas matemáticas de
    modo a possibilitar que o leitor de telas NVDA fosse capaz de explorar internamente as fórmulas
    utilizando delimitações contextuais nos elementos matemáticos com leitura em Português.
    Para isso, este trabalho se apoiou em resultados de trabalhos anteriores que tiveram a participação
    do autor desta dissertação, que envolveram: entrevistas com 12 pessoas com deficiência
    visual, além da realização de testes sobre um protótipo baseado no leitor de telas ChromeVox,
    que contou com a participação de 5 pessoas com deficiência visual. A partir da identificação
    das necessidades dos usuários, por intermédio das entrevistas e testes utilizando o protótipo
    ChromeVox-NavMatBR, foram identificados problemas envolvendo sobrecarga de memória e
    compreensão ambígua das fórmulas matemáticas. Tendo em mente estes problemas, o plugin
    com narração em português do Brasil aqui apresentado, denominado Acces8Math-NavMatBR,
    baseado no Access8Math, foi desenvolvido e submetido à testes de usabilidade com a participação
    de 6 usuários com deficiência visual. Os testes com o novo sistema demonstraram
    uma melhora quanto à compreensão das fórmulas, bem como a melhoria no acesso a elementos
    específicos com a exploração com abstração das fórmulas. O sistema demonstrou ser uma importante
    contribuição tecnológica, por tratar-se de um plugin com distribuição gratuita para uso.
    Como contribuição científica, o presente trabalho apresentou avanços no estudo de técnicas para
    auxiliar na compreensão das fórmulas matemáticas por pessoas com deficiência visual por meio
    de leitores de tela. Por tratar-se de um sistema de código aberto, o trabalho também possibilita
    sua utilização em pesquisas futuras. Este trabalho ainda traz como contribuições científicas um
    melhor entendimento à respeito das necessidades dos usuários de leitor de telas, bem como resultados
    de implicações de design de sistemas para leitura de fórmulas matemáticas no contexto
    brasileiro e considerações sobre os padrões de exploração utilizados por usuários brasileiros no
    que diz respeito à leitura e navegação em fórmulas matemáticas.

  • DIEGO VINÍCIUS NATIVIDADE
  • DVNAT: A DEDICATED VEHICULAR NETWORK ARCHITECTURE AGAINST INCONSISTENCY AND BAD-MOUTHING ATTACKS THROUGH A REPUTATION SYSTEM.

  • Data: 24 nov. 2020
  • Afficher le Résumé
  • As VANETs (Vehicular Ad hoc Network) trouxeram mais segurança e conforto para o trânsito,
    possibilitando a troca de mensagens de tráfego e conteúdos de entretenimento entre os veículos.
    Entretanto, existem vários tipos de ataques conhecidos em redes veículares, que podem
    trazer grandes problemas para os motoristas. Ataques de inconsistencia e conluio por badmouthing,
    por exemplo, são capazes de pertubar o correto funcionamento da rede. Este trabalho
    apresenta o DVNAT (Dedicated Vehicular Network ArchiTecture), que é capaz de lidar com
    esses tipos de ataques em redes veiculares. Ele utilizando assinatura digital com o algoritmo
    Ed25519 e um sistema de reputação centralizado com o algoritmo LETICIA (Lightweight and
    EfficienT Information exChange In Ad-hoc network), que foi desenvolvido para mitigar ataques
    de veículos maliciosos em VANET. Resultados de simulação mostram que o DVNAT com o
    algoritmo LETICIA reduziu efetivamente a reputação do veículo malicioso contra ataques de
    inconsistência, ao mesmo tempo que manteve a reputação do veículo honesto contra ataques de
    conluio por bad-mouthing, quando comparado aos algoritmos ARS, BYOR, BYOR-LF e IDES.

  • DIEGO VINÍCIUS NATIVIDADE
  • A DEDICATED VEHICULAR NETWORK ARCHITECTURE AGAINST INCONSISTENCY AND BAD-MOUTHING ATTACKS THROUGH A REPUTATION SYSTEM

  • Data: 24 nov. 2020
  • Afficher le Résumé
  • As VANETs (Vehicular Ad hoc Network) trouxeram mais segurança e conforto para o trânsito,
    possibilitando a troca de mensagens de tráfego e conteúdos de entretenimento entre os veículos.
    Entretanto, existem vários tipos de ataques conhecidos em redes veículares, que podem
    trazer grandes problemas para os motoristas. Ataques de inconsistencia e conluio por badmouthing,
    por exemplo, são capazes de pertubar o correto funcionamento da rede. Este trabalho
    apresenta o DVNAT (Dedicated Vehicular Network ArchiTecture), que é capaz de lidar com
    esses tipos de ataques em redes veiculares. Ele utilizando assinatura digital com o algoritmo
    Ed25519 e um sistema de reputação centralizado com o algoritmo LETICIA (Lightweight and
    EfficienT Information exChange In Ad-hoc network), que foi desenvolvido para mitigar ataques
    de veículos maliciosos em VANET. Resultados de simulação mostram que o DVNAT com o
    algoritmo LETICIA reduziu efetivamente a reputação do veículo malicioso contra ataques de
    inconsistência, ao mesmo tempo que manteve a reputação do veículo honesto contra ataques de
    conluio por bad-mouthing, quando comparado aos algoritmos ARS, BYOR, BYOR-LF e IDES.

  • GUSTAVO LOPES DOMINGUETE
  • USABILIDADE DE APLICATIVOS MÓVEIS VOLTADOS PARA A SAÚDE ACOPLÁVEIS A DIFERENTES EQUIPAMENTOS VESTÍVEIS.

  • Data: 23 nov. 2020
  • Afficher le Résumé
  • A área de saúde tem utilizado cada vez mais recursos tecnológicos para obter rapidamente dados
    precisos para dar suporte à tomada de decisão, e os sistemas vestíveis estão entre os sistemas
    que tem ganhado espaço neste contexto. O desenvolvimento de sistemas que apoiam a saúde
    do usuário deve almejar a obtenção de sistemas que tenham boa usabilidade e que sejam confiáveis.
    Em sistemas vestíveis, há questões específicas de usabilidade relacionadas com o fato de
    os usuários terem contato físico mais direto com os dispositivos. Desta forma, há um grande interesse
    em estudar maneiras de facilitar o uso e assegurar a confiabilidade de sistemas vestíveis
    para que sejam utilizados sem interferir negativamente na saúde do usuário. Sistemas vestíveis
    para saúde podem conter sensores embutidos ou incluírem conexões a equipamentos externos,
    com funcionalidades para utilização dos dados de diferentes formas pelos usuários. Sistemas
    que permitem flexibilidade na conexão com diferentes equipamentos vestíveis, especialmente
    os aplicativos móveis, oferecem muitas vantagens para usuários. Entretanto, com a possibilidade
    de uso de aplicativos acoplados a diferentes equipamentos e sensores vestíveis, há um
    desafio maior para a usabilidade dos aplicativos, considerando a diversidade de tipos de dados e
    o processo de acoplamento dos sensores e demais componentes de um sistema vestível. Dados
    esses desafios, essa pesquisa visou responder a seguinte questão: “Quais heurísticas de usabilidade
    podem apoiar no design do processo de conexão em aplicações acopláveis a diferentes
    equipamentos vestíveis de monitoramento de saúde?”. Para responder a esta pergunta, o estudo
    contou com uma avaliação de usabilidade com usuários contando com 30 participantes para
    avaliar um equipamento vestível criado na pesquisa usado com três aplicativos de monitoramento
    de atividade física presentes no mercado, e que possibilitam o acoplamento com diversos
    tipos de equipamento vestível. A análise dos problemas de usabilidade destes testes levaram
    à definição de cinco novas heurísticas para auxiliar o desenvolvimento de sistemas interativos
    para apoiar a conexão entre equipamento vestível e o aplicativo. Para avaliar o uso das heurísticas,
    foram realizadas três sessões de avaliações heurísticas sobre um aplicativo desenvolvido
    como prova de conceito com especialistas, com correções entre as sessões. As avaliações dos
    aplicativos existentes resultaram em 714 problemas de usabilidade, dos quais 237 eram relacionados
    ao acoplamento entre o equipamento vestível e os aplicativos. As avaliações heurísticas
    encontraram um total de 215 problemas de usabilidade, sendo 79 na primeira, 74 na segunda e
    62 na terceira. Os resultados indicaram que as novas heurísticas conseguirem encontrar problemas
    na avaliação do aplicativo desenvolvido como prova de conceito. O número de problemas
    relacionados às heurísticas criadas nessa pesquisa diminuiu na segunda e terceira avaliação,
    após as correções feitas usando as heurísticas. O presente trabalho teve como contribuição a
    identificação de problemas de usabilidade existentes no acoplamento de equipamentos vestíveis
    e aplicativos que podem acoplar com diversos tipos de equipamentos vestíveis, com a proposta
    e avaliação do uso de um conjunto de cinco novas heurísticas. Espera-se que, com a utilização
    dessas heurísticas, possa-se desenvolver sistemas vestíveis para uso no contexto da saúde com
    melhor usabilidade em aplicativos com flexibilidade no uso de diferentes sensores.

  • RODRIGO CARVALHO BARBOSA
  • CLASSIFICAÇÃO DE VEÍCULOS BASEADA EM DEEP LEARNING PARA APLICAÇÃO EM SEMÁFOROS INTELIGENTES.

  • Data: 19 nov. 2020
  • Afficher le Résumé
  • Atualmente, na literatura muitos estudos surgem a cada momento afim de diminuir a intervenção
    humana e melhorar a qualidade de vida, propondo novos serviços, mecanismos por meio
    de aplicativos, inovações tecnológicas e sensores automáticos. Visando em mobilidade urbana
    os semáforos de trânsito são serviços que são explorados. Algoritmos de Aprendizagem Profunda
    (DL) vêm sem muito utilizados para identificação e classificação de imagens para tomada
    de decisão no trânsito, com o objetivo de detectar veículos de segurança e saúde pública. Porém,
    faltam algoritmos para classificar imagens em semáforos inteligentes com alta precisão
    e de reposta rápida. Nesta pesquisa, é proposto um sistema de detecção de imagens para diferentes
    tipos de serviços como veículos de segurança, saúde e transporte público e veículos
    comuns, integrado a um semáforo inteligente. Além disso, também é proposto um algoritmo
    de priorização baseado no Código de Trânsito Brasileiro (CTB). O sistema de detecção é baseado
    em um algoritmo DL, usando um modelo aprimorado do You Only Live Once (Terceira
    Versão) (YOLOV3), que foi chamada de Rede de identificação de veículos prioritários (PVInet,
    do inglês Priority Vehicles Identification Network). Além disso, é proposto uma estratégia
    de design para o modelo PVInet que apresenta um alto desempenho em termos de tempo de
    execução. Para o treinamento do modelo PVInet, foi criada uma nova Banco de Dados (BD)
    que considera imagens homogêneas de veículos do trânsito Brasileiro, uma vez que as atuais
    BD disponível na literatura são de imagens heterogêneas. A proposta da nossa solução poderá
    ajudar a reduzir o tempo de espera de veículos com prioridade nas estradas controladas por um
    semáforo, algo que não ocorre quando comparado a um semáforo atual com tempos de espera
    fixos.

  • VITOR NOTINI PONTES
  • ALGORITHMS FOR THE MULTIPERIOD WORKFORCESCHEDULING AND ROUTING PROBLEM WITH DEPENDENT TASKS

  • Data: 3 nov. 2020
  • Afficher le Résumé
  • Logistics problems lie at the core of industries’ everyday operations. These types of problems are also one of the main points of interest in the Operations Research field of study. In recent decades, a class of combinatorial optimization problems, named Workforce Scheduling and Routing Problems (WSRP), has gained significant attention from researchers. In this document, a recently proposed WSRP is studied: in the Multiperiod Workforce Scheduling and Routing Problem with Dependent Tasks (MWSRPDT) a given company provides services by means of mobile teams. Service requests are known beforehand and each service is composed of one or more activities, where one activity may depend on the completion of another. A feasible schedule must be provided where all requested activities are completed in the minimum amount of days while respecting existing dependencies. Two hybrid exact-heuristic approaches based on a Mixed-Integer Programming formulation are proposed. Several new upper bounds for a set of instances obtained from the literature are discovered.

  • LUCAS BURAHEM MARTINS
  • ALGORITHMS FOR THE TIME WINDOW ASSIGNMENT VEHICLE ROUTING PROBLEM

  • Data: 24 août 2020
  • Afficher le Résumé
  • We study the Time Window Assignment Vehicle Routing Problem (TWAVRP), which appears in real contexts where demand is unknown or suffers fluctuations per delivery. We consider a finite number of scenarios, capacitated vehicles, and exogeneous time-windows for each client. Our goal is to minimize transportation costs and to assign endogeneous time-windows overall scenarios. We propose a hybrid algorithm that generates a set of routes by requesting an Iterated Local Search (ILS) metaheuristic and then chooses the most appropriate routes through a set-covering based auxiliary formulation. The contributions described here is threefold. First, we improve the best-known solutions reported in the TWAVRP literature. Then we extend the TWAVRP adding heterogeneous vehicles and driver stopping periods assumptions. This variant appears in the pharmaceutical industry. With a database provided by Coopservice company, we generate a new real instance. Finally, we test our approach with such an instance. Computational results indicate that the proposed algorithm is accurate in practice, and answer our research question: “What are the algorithms that can optimize costs and respect all constraints of TWAVRP and its variant concerning the Coopservice routing planning?'”

  • LAIR SERVULO DA CUNHA JÚNIOR
  • REG3M: REENCAMINHAMENTO GEOGRÁFICO DE MENSAGENS MULTIMÍDIA HOMOGRÁFICAS EM CONGESTIONAMENTOS VEICULARES.

  • Data: 21 août 2020
  • Afficher le Résumé
  • O uso de tecnologia vem se tornando cada vez mais popular, com essa popularização, diversos setores passaram a usar as tecnologias, como redes veiculares. Redes veiculares ou VANETs, são redes formadas pela comunicação entre os próprios veículos (V2V), entre veículos e infraestrutura (V2I) e híbrida (V2X). Dentro de VANETs existem diversos tipos de aplicações, uma delas busca melhorar a eficiência no trânsito. Uma forma de melhorar a eficiência no trânsito é a utilização de vídeos para o monitoramento da vias. Em situações de congestionamento, os vídeos podem ser úteis para informar o estado em que se encontram os envolvidos no incidente que ocasionou o congestionamento. Uma maneira de enviar o vídeo para o maior número de pessoas possível é o envio por broadcast, porém esse tipo de envio pode ocasionar problemas. Para evitar problemas causados por envio em broadcast, este trabalho propõe um método de Reencaminhamento Geográfico de Mensagens MultiMídia (ReG3M). O ReG3M utiliza o veículo mais distante da origem da mensagem para ser o reencaminhador, também faz controle de mensagens repetidas na rede. O ReG3M foi comparado à transmissão em broadcast e aos algoritmos AID e DBRS. Este trabalho também propõe um Framework para utilização de homografia de vídeos em redes veiculares (VANET) em cenários de congestionamento. Os algoritmos SIFT, SURF, ORB e BRISK foram avaliados e comparados ao usarem o algoritmo RANSAC para a criação da matriz homográfica, considerando os algoritmos de qualidade de vídeo BRISQUE e NIQE. Resultados de simulação mostraram que o BRISK obteve melhor qualidade de imagem em relação aos outros descritores sendo também o segundo mais rápido em tempo de processamento.

  • LAIR SERVULO DA CUNHA JÚNIOR
  • REG3M: REENCAMINHAMENTO GEOGRÁFICO DE MENSAGENS MULTIMÍDIA HOMOGRÁFICAS EM CONGESTIONAMENTOS VEICULARES

  • Data: 21 août 2020
  • Afficher le Résumé
  • O uso de tecnologia vem se tornando cada vez mais popular, com essa popularização, diversos setores passaram a usar as tecnologias, como redes veiculares. Redes veiculares ou VANETs, são redes formadas pela comunicação entre os próprios veículos (V2V), entre veículos e infraestrutura (V2I) e híbrida (V2X). Dentro de VANETs existem diversos tipos de aplicações, uma delas busca melhorar a eficiência no trânsito. Uma forma de melhorar a eficiência no trânsito é a utilização de vídeos para o monitoramento da vias. Em situações de congestionamento, os vídeos podem ser úteis para informar o estado em que se encontram os envolvidos no incidente que ocasionou o congestionamento. Uma maneira de enviar o vídeo para o maior número de pessoas possível é o envio por broadcast, porém esse tipo de envio pode ocasionar problemas. Para evitar problemas causados por envio em broadcast, este trabalho propõe um método de Reencaminhamento Geográfico de Mensagens MultiMídia (ReG3M). O ReG3M utiliza o veículo mais distante da origem da mensagem para ser o reencaminhador, também faz controle de mensagens repetidas na rede. O ReG3M foi comparado à transmissão em broadcast e aos algoritmos AID e DBRS. Este trabalho também propõe um Framework para utilização de homografia de vídeos em redes veiculares (VANET) em cenários de congestionamento. Os algoritmos SIFT, SURF, ORB e BRISK foram avaliados e comparados ao usarem o algoritmo RANSAC para a criação da matriz homográfica, considerando os algoritmos de qualidade de vídeo BRISQUE e NIQE. Resultados de simulação mostraram que o BRISK obteve melhor qualidade de imagem em relação aos outros descritores sendo também o segundo mais rápido em tempo de processamento.

  • LUCAS NUNES BARBOSA
  • DISTRIBUTED RECOMMENDER SYSTEMS ON AN OPPORTUNISTIC NETWORK ENVIRONMENT

  • Data: 28 févr. 2020
  • Afficher le Résumé
  • Mobile devices are common throughout the world, even in counties with limited internet access and even when natural disasters disrupt access to a centralized infrastructure. This access allows for the exchange of information at an incredible pace and across vast distances. However, this wealth of information can frustrate users as they become inundated with irrelevant or unwanted data.
    Recommender systems help alleviate this burden. The project presents a novel collaborative filtering recommender system based on an opportunistic distributed network.
    Collaborative filtering algorithms are widely used in many online systems. Often, the computation of these recommender systems is performed on a central server, controlled by the provider, requiring constant internet connection for gathering and computing data. However, in many scenarios, such constraints cannot be guaranteed or may not even be desired. On the proposed recommendation engine, users share information via an opportunistic network independent of a dedicated internet connection. Each node is responsible for gathering information from nearby nodes and calculating its own recommendations. Using a centralized collaborative filtering recommender as a baseline, we evaluate three simulated scenarios composed by different movement speeds and data exchange parameters. Our results show that in a relatively short time, an opportunistic distributed recommender systems can achieve results similar to a traditional centralized system. Furthermore, we noticed that the speed at which the opportunistic recommender system stabilizes depends on several factors including density of the users, movement speed and patterns of the users, and transmission strategies. On future works we will analyze new strategies and datasets, likewise, we will increase the number of users on different scenarios.

  • VÂNIA BATISTA DOS SANTOS
  • META-APRENDIZAGEM APLICADA A CLASSIFICAÇÃO DE TEXTO MULTIRRÓTULO.

  • Data: 21 févr. 2020
  • Afficher le Résumé
  • A classificação é uma tarefa preditiva da Mineração de Dados que utiliza um conjunto de dados
    (instâncias), previamente rotulados, para o treinamento de um algoritmo que tem a função de
    aprender com os dados apresentados e ser capaz de predizer os rótulos de novas instâncias. A
    classificação multirrótulo, por sua vez, difere da tradicional classificação monorrótulo ao permitir
    que cada instância do conjunto de dados esteja associada a mais de um rótulo. Dessa
    forma, no domínio de textos, caracterizado pela diversidade, volume e produção crescente, a
    classificação multirrótulo desempenha um papel importante ao permitir que, de forma automática,
    seja extraído o máximo de informação embutida nesses dados. Por meio dos textos, é
    possível identificar conteúdos de grande valor para a tomada de decisão, como interesses, opiniões
    e sentimentos. Algumas áreas que exploram formas de trabalhar com os dados textuais
    são Processamento de Linguagem Natural, Mineração de Dados e Aprendizado de Máquina.
    A classificação multirrótulo dispõe de um significativo número de técnicas de aprendizagem
    disponíveis para a sua execução. Porém, encontrar a que seja mais apropriada para um determinado
    conjunto de dados, não é uma tarefa trivial, pois exige conhecimento das técnicas,
    consecutivos experimentos e, consequentemente, tempo. Nesse contexto, a meta-aprendizagem
    apresenta a relevância de sua aplicação ao investigar formas de automatizar o processo de seleção
    das melhores técnicas para determinado problema. Portanto, o objetivo deste trabalho é
    aplicar a meta-aprendizagem no desenvolvimento de um método para a classificação de textos
    multirrótulo, o qual busca selecionar o melhor algoritmo de classificação para cada instância
    do conjunto de dados apresentado. Os resultados experimentais demonstraram a eficácia do
    método proposto.

2019
Description
  • HOYAMA MARIA DOS SANTOS
  • Cleangame: Uma abordagem gamificada para detecção de code smells.

  • Data: 12 déc. 2019
  • Afficher le Résumé
  • Refatoração é o processo de transformar a estrutura interna do código existente sem alterar seu comportamento observável. Muitos estudos mostraram que a refatoração aumenta a facilidade na manutenção e a compreensibilidade do programa. Devido a esses benefícios, a ela é reconhecida como uma prática recomendada na comunidade de desenvolvimento de software. No entanto, antes das atividades de refatoração, os desenvolvedores precisam procurar essas oportunidades, ou seja, os desenvolvedores precisam ser capazes de identificar code smells, que são essencialmente instâncias de design inadequado e opções de implementação mal consideradas que podem prejudicar a capacidade de manutenção e a compreensão do código. No entanto, a identificação do code smells é negligenciada no currículo de Ciência da Computação. Recentemente, os educadores de Engenharia de Software começaram a explorar a gamificação, o que implica o uso de elementos de jogo em contextos não relacionados a jogos, para melhorar os resultados instrucionais em contextos educacionais. O potencial da gamificação reside em apoiar e motivar os alunos, aprimorando o processo de aprendizagem e seus resultados. Dessa forma, esse trabalho irá avaliar até que ponto essa alegação é válida no contexto do reforço pós-treinamento. Para esse fim, foi implementado e desenvolvido o CleanGame, que é uma ferramenta gamificada que cobre um aspecto importante do currículo da refatoração: identificação do code smells. E realizado um experimento envolvendo dezoito participantes para investigar a eficácia da gamificação no contexto do reforço pós-treinamento. Como resultado, em média, os participantes conseguiram identificar o dobro de code smel durante o reforço da aprendizagem com uma abordagem gamificada em comparação com uma abordagem não gamificada. Além disso, foi administrada uma pesquisa de atitude pós-experimento aos participantes. De acordo com os resultados dessa pesquisa, a maioria dos participantes mostraram uma atitude positiva em relação ao CleanGame.

  • DOUGLAS NUNES DE OLIVEIRA
  • UMA ABORDAGEM DE AUTO-ML PARA ANÁLISE DE SENTIMENTOS NA LÍNGUA PORTUGUESA

  • Data: 26 nov. 2019
  • Afficher le Résumé
  • A análise de sentimentos é uma área em ascensão tanto no meio acadêmico quanto comercial. Ela é um tipo de extração de conhecimento a partir de dados que faz uso de diversas tarefas de processamento de linguagem natural e de técnicas de mineração de dados para obter seus resultados. Encontrar a melhor combinação dessas tarefas para uma determinada base de dados não é uma tarefa trivial, dado que pode existir uma grande quantidade de combinações a serem avaliadas. Além disso, a avaliação de cada combinação pode requerer um grande poder computacional que pode restringir a quantidade de avaliações possíveis. Sendo assim, este trabalho inicialmente apresenta uma avaliação da combinação de cinco tarefas de pré-processamento e três classificadores considerando a tarefa de análise de sentimentos de textos da língua portuguesa. Os resultados dessa avaliação mostram que diferentes combinações podem afetar significativamente o desempenho preditivo obtido em uma base de dados. Isso deixa claro a importância de executar a avaliação conjunta de tarefas de pré-processamento com classificadores ao escolher quais tarefas de pré-processamento e classificador devem ser usados para uma base de dados. Desse modo, este trabalho também propõe uma abordagem de Aprendizado de Máquina Automatizado (Automated Machine Learning – Auto-ML) para buscar uma boa combinação de classificador com técnicas de pré-processamento de textos (associadas com tarefas de processamento de linguagem natural) sem a necessidade de avaliar todas combinações possíveis. A abordagem proposta utiliza algoritmos evolutivos e otimização Bayesiana em conjunto com a técnica de correção de viés Bootstrap Bias Corrected Cross-Validation (BBC-CV) para encontrar tal combinação. Essa abordagem, avaliada a partir de bases de dados com textos escritos em língua portuguesa, mostrou um desempenho tão bom quanto ou superior ao de outra ferramenta de Auto-ML.

  • LIBERIO MARTINS SILVA
  • ALGORITMOS HIPER-HEURÍSTICOS EVOLUCIONÁRIOS PARA OS PROBLEMAS DE REDUÇÕES DE LARGURA DE BANDA E DE PROFILE

  • Data: 31 oct. 2019
  • Afficher le Résumé
  • Este trabalho propõe uma nova abordagem por otimização por colônica de formigas para reordenação de linhas e colunas de matrizes simétricas e positivas definidas. Esta abordagem consiste de uma hyper-heurística por colônia de formigas para gerar novas heurísticas focadas em redução de largura de banda. As novas heurísticas são comparadas com heurísticas no estado da arte com o objetivo de acelerar a resolução do sistema de equações lineares precondicionado por Cholesky. Os resultados obtidos mostram que em instâncias oriundas de problemas das áreas: mecânica dos fluidos; estruturais; e termodinâmica.

  • LIBERIO MARTINS SILVA
  • ALGORITMOS HIPER-HEURÍSTICOS EVOLUCIONÁRIOS PARA OS PROBLEMAS DE REDUÇÕES DE LARGURA DE BANDA E DE PROFILE

  • Data: 31 oct. 2019
  • Afficher le Résumé
  • Este trabalho propõe uma nova abordagem por otimização por colônica de formigas para reordenação de linhas e colunas de matrizes simétricas e positivas definidas. Esta abordagem consiste de uma hyper-heurística por colônia de formigas para gerar novas heurísticas focadas em redução de largura de banda. As novas heurísticas são comparadas com heurísticas no estado da arte com o objetivo de acelerar a resolução do sistema de equações lineares precondicionado por Cholesky. Os resultados obtidos mostram que em instâncias oriundas de problemas das áreas: mecânica dos fluidos; estruturais; e termodinâmica.

  • JULIANA BOTELHO DE CARVALHO
  • UMA INVESTIGAÇÃO DO CUSTO ENVOLVIDO NA IDENTIFICAÇÃO MANUAL DE MUTANTES EQUIVALENTES

  • Data: 22 oct. 2019
  • Afficher le Résumé
  • O teste de mutação consiste em mudar o sistema de software a ser testado por meio da aplicação de operadores de mutação. Como resultado, a aplicação de tais operadores gera versões diferentes desse sistema. Essas versões são denominadas mutantes. Os mutantes são utilizados para verificar se os casos de teste, construídos para o sistema de software, são capazes de identificar essas alterações efetuadas no código original. Assim, a qualidade do conjunto de teste de unidade é verificada. Caso os testes de unidade sejam capazes de detectar todas as alterações, os mutantes são mortos e o conjunto de testes é suficiente; caso alguns mutantes não sejam mortos, é necessária a análise desses mutantes para verificar se novos casos de teste são necessários para detectar essas alterações ou se os mutantes vivos são equivalentes ao código original, ou seja, se geram a mesma saída que o código original. Um problema do teste de mutação é o custo envolvido em identificar se esses mutantes são equivalentes ao sistema de software original. A identificação dos mutantes equivalentes é indecidível, portanto, normalmente a análise é conduzida manualmente, o que consome horas de um analista para efetuar essa checagem dos códigos. Dessa forma, esta pesquisa investigou o custo envolvido na análise manual dos mutantes para a verificação da equivalência entre os códigos original e mutante. Tal custo está atrelado ao fator humano da análise e não ao custo computacional da geração dos mutantes. Como os operadores de mutação geram muitos mutantes, é considerado o custo computacional para executar o conjunto de teste para cada mutante. Já a análise dos mutantes vivos implica no custo humano. Dessa forma, para verificar o custo manual da análise, a ferramenta DiffMutAnalyze foi desenvolvida, a fim de comparar a análise manual com a análise utilizando uma ferramenta para auxiliar a inspeção dos mutantes com os códigos originais. Dessa forma, é possível verificar o tempo gasto com a análise manual e verificar a diferença dessa análise com a análise por meio de uma ferramenta de apoio computacional. Tal ferramenta tem o propósito possibilitar que programas originais e mutantes sejam comparados lado a lado, facilitando a análise manual dos mutantes, uma vez que na ferramenta, o local da mutação é evidenciado para o usuário. Para realizar essa comparação das análises manual e por meio da DiffMutAnalyze, um experimento foi conduzido. Além disso, outro experimento foi realizado para verificar o uso da DiffMutAnalyze e verificar se a utilização dessa ferramenta pode auxiliar no processo do teste de mutação. Como resultado do experimento para verificar o custo da análise manual dos mutantes, em geral, os sujeitos participantes do experimento gastaram em média 31 minutos e 30 segundos para realizar a análise manual dos mutantes, quando a análise foi realizada por meio da DiffMutAnalyze, o tempo médio foi de 14 minutos. Dessa forma, a análise realizada por meio da DiffMutAnalyze, foi reduzida em mais de 50% do tempo. Portanto, a análise manual dos mutantes é dispendiosa e a utilização de uma ferramenta para auxiliar a verificação da identificação dos mutantes equivalentes, reduz o custo dessa análise. Por meio do experimento para verificar se a DiffMutAnalyze pode auxiliar no processo do teste de mutação, foi verificado que a ferramenta ajuda na realização do teste de mutação, uma vez que a mutação do código original é realizada automaticamente e os mutantes sobreviventes aos testes de unidades são disponibilizados para inspeção. Com isso, a comparação dos códigos original e mutante se torna mais rápida, pois na ferramenta, os códigos são disponibilizados automaticamente e a alteração efetuada é identificada pela DiffMutAnalyze. Assim, o analista não necessita procurar o local da alteração realizada pelos operadores de mutação.

  • JULIANA BOTELHO DE CARVALHO
  • UMA INVESTIGAÇÃO DO CUSTO ENVOLVIDO NA IDENTIFICAÇÃO MANUAL DE MUTANTES EQUIVALENTES

  • Data: 22 oct. 2019
  • Afficher le Résumé
  • O teste de mutação consiste em mudar o sistema de software a ser testado por meio da aplicação de operadores de mutação. Como resultado, a aplicação de tais operadores gera versões diferentes desse sistema. Essas versões são denominadas mutantes. Os mutantes são utilizados para verificar se os casos de teste, construídos para o sistema de software, são capazes de identificar essas alterações efetuadas no código original. Assim, a qualidade do conjunto de teste de unidade é verificada. Caso os testes de unidade sejam capazes de detectar todas as alterações, os mutantes são mortos e o conjunto de testes é suficiente; caso alguns mutantes não sejam mortos, é necessária a análise desses mutantes para verificar se novos casos de teste são necessários para detectar essas alterações ou se os mutantes vivos são equivalentes ao código original, ou seja, se geram a mesma saída que o código original. Um problema do teste de mutação é o custo envolvido em identificar se esses mutantes são equivalentes ao sistema de software original. A identificação dos mutantes equivalentes é indecidível, portanto, normalmente a análise é conduzida manualmente, o que consome horas de um analista para efetuar essa checagem dos códigos. Dessa forma, esta pesquisa investigou o custo envolvido na análise manual dos mutantes para a verificação da equivalência entre os códigos original e mutante. Tal custo está atrelado ao fator humano da análise e não ao custo computacional da geração dos mutantes. Como os operadores de mutação geram muitos mutantes, é considerado o custo computacional para executar o conjunto de teste para cada mutante. Já a análise dos mutantes vivos implica no custo humano. Dessa forma, para verificar o custo manual da análise, a ferramenta DiffMutAnalyze foi desenvolvida, a fim de comparar a análise manual com a análise utilizando uma ferramenta para auxiliar a inspeção dos mutantes com os códigos originais. Dessa forma, é possível verificar o tempo gasto com a análise manual e verificar a diferença dessa análise com a análise por meio de uma ferramenta de apoio computacional. Tal ferramenta tem o propósito possibilitar que programas originais e mutantes sejam comparados lado a lado, facilitando a análise manual dos mutantes, uma vez que na ferramenta, o local da mutação é evidenciado para o usuário. Para realizar essa comparação das análises manual e por meio da DiffMutAnalyze, um experimento foi conduzido. Além disso, outro experimento foi realizado para verificar o uso da DiffMutAnalyze e verificar se a utilização dessa ferramenta pode auxiliar no processo do teste de mutação. Como resultado do experimento para verificar o custo da análise manual dos mutantes, em geral, os sujeitos participantes do experimento gastaram em média 31 minutos e 30 segundos para realizar a análise manual dos mutantes, quando a análise foi realizada por meio da DiffMutAnalyze, o tempo médio foi de 14 minutos. Dessa forma, a análise realizada por meio da DiffMutAnalyze, foi reduzida em mais de 50% do tempo. Portanto, a análise manual dos mutantes é dispendiosa e a utilização de uma ferramenta para auxiliar a verificação da identificação dos mutantes equivalentes, reduz o custo dessa análise. Por meio do experimento para verificar se a DiffMutAnalyze pode auxiliar no processo do teste de mutação, foi verificado que a ferramenta ajuda na realização do teste de mutação, uma vez que a mutação do código original é realizada automaticamente e os mutantes sobreviventes aos testes de unidades são disponibilizados para inspeção. Com isso, a comparação dos códigos original e mutante se torna mais rápida, pois na ferramenta, os códigos são disponibilizados automaticamente e a alteração efetuada é identificada pela DiffMutAnalyze. Assim, o analista não necessita procurar o local da alteração realizada pelos operadores de mutação.

  • LUANA ALMEIDA MARTINS
  • ANÁLISE DA MODULARIDADE DE CARACTERÍSTICAS ASPECTUAIS DE TECNOLOGIAS PARA IMPLEMENTAR LINHAS DE PRODUTOS DE SOFTWARE

  • Data: 29 août 2019
  • Afficher le Résumé
  • Linha de Produtos de Software (LPS) visa à geração de produtos de software pertencentes a determinado domínio, por meio do reúso sistemático de artefatos de software. Para isso, a abordagem consiste na identificação de features comuns, permitem que os produtos sejam desenvolvidos com comportamento padrão, e features variáveis, permitem a variação no comportamento dos produtos e compõem os produtos específicos. O ponto crítico da LPS é a modularização dos artefatos de software para serem coerentes, bem definidos, independentes e combináveis. Para isso, são utilizadas tecnologias de gerenciamento de variabilidades que permitem o desenvolvimento do conjunto de features da LPS e suportam configuradores para a propagação de escolhas das features e a auto-conclusão dos produtos da LPS. Este trabalho propõe uma investigação da modularidade de uma LPS desenvolvida com três tecnologias de gerenciamento de variabilidades: (i) Orientação a Aspectos, (ii) Orientação a Características, e (iii) Módulos de Características Aspectuais. Para essa investigação, foram coletadas três medidas de acoplamento (Dependency In, Dependency Out e Structural Feature Coupling) e três medidas de coesão (External-ratio Feature Dependency, Internal-ratio Feature Dependency Lack of Concern-based Cohesion). Essas medidas foram analisadas utilizando o teste de significância de Friedman (com nível de 5% de significância). Primeiramente, foi realizada a análise individual das medidas, por meio da qual foi constatada a diferença significativa entre as tecnologias Orientação a Aspectos e Módulos de características Aspectuais, para todas as medidas. Posteriormente, as medidas foram analisadas conforme o agrupamento em medidas de acoplamento e em medidas de coesão. No entanto, não foi constatada diferença significativa entre as três tecnologias de gerenciamento de variabilidades utilizando as medidas agrupadas em acoplamento e em coesão.

  • LUANA ALMEIDA MARTINS
  • Análise da Modularidade de Características Aspectuais de Tecnologia para Implementar Linhas de Produtos de Software

  • Data: 22 août 2019
  • Afficher le Résumé
  • NÃO INFORMADO

  • ELENA AUGUSTA ARAUJO
  • UMA ABORDAGEM DE CONFORMIDADE ARQUITETURAL PARA ARQUITETURA DE MICROSSERVIÇOS

  • Data: 31 mai 2019
  • Afficher le Résumé
  • .

  • GUSTAVO CARVALHO SOUZA
  • MAC-AHEAD: UM PROTOCOLO CROSS-LAYER ANYCAST ASSÍNCRONO ADAPTÁVEL ÀS CONDIÇÕES DO CANAL DE COMUNICAÇÃO

  • Data: 28 févr. 2019
  • Afficher le Résumé
  • Este trabalho apresenta o MAC-AHEAD, um protocolo de controle de acesso ao meio (MAC) anycast assíncrono cross-layer para redes de sensores sem fio (RSSFs). Este protocolo utiliza ciclo de trabalho inativo/ativo como forma de diminuir o consumo de energia e emprega o modelo de comunicação anycast para reduzir o tempo de propagação de mensagens de dados. Um método de envio de mensagens dividido em fases é responsável pela redução de latência na entrega de dados. Na primeira fase, uma sequência de mensagens de controle RTS é enviada para descobrir o próximo salto na rota e escalonar seu tempo de despertar. Na segunda fase, a mensagem DATA é enviada alguns saltos após o RTS. Assim, o RTS e o DATA percorrem a rota de origem para o destino simultaneamente, reduzindo a latência, sem consumo de energia extra. Para acelerar a propagação do RTS, um método anycast é empregado. Um conjunto de vizinhos, denominado FCS (Forward Candidate Set), são escolhidos como bons encaminhadores para a mensagem de dados. O protocolo MAC seleciona como próximo roteador o membro do FCS que primeiro responde ao RTS. A seleção dos membros do FCS é baseada em dois parâmetros, a proximidade do nó Destino e a SINR (relação sinal-ruído/interferência) percebido pelo nó vizinho ao receber a mensagem RTS. A fim de avaliar o desempenho do MAC-AHEAD, este foi comparado com os protocolos X-MAC e PAX-MAC. Os resultados das simulações mostraram que o protocolo proposto supera os outros dois em latência e consumo de energia.

  • GUSTAVO CARVALHO SOUZA
  • MAC-AHEAD: UM PROTOCOLO CROSS-LAYER ANYCAST ASSÍNCRONO ADAPTÁVEL ÀS CONDIÇÕES DO CANAL DE COMUNICAÇÃO

  • Data: 28 févr. 2019
  • Afficher le Résumé
  • Este trabalho apresenta o MAC-AHEAD, um protocolo de controle de acesso ao meio (MAC) anycast assíncrono cross-layer para redes de sensores sem fio (RSSFs). Este protocolo utiliza ciclo de trabalho inativo/ativo como forma de diminuir o consumo de energia e emprega o modelo de comunicação anycast para reduzir o tempo de propagação de mensagens de dados. Um método de envio de mensagens dividido em fases é responsável pela redução de latência na entrega de dados. Na primeira fase, uma sequência de mensagens de controle RTS é enviada para descobrir o próximo salto na rota e escalonar seu tempo de despertar. Na segunda fase, a mensagem DATA é enviada alguns saltos após o RTS. Assim, o RTS e o DATA percorrem a rota de origem para o destino simultaneamente, reduzindo a latência, sem consumo de energia extra. Para acelerar a propagação do RTS, um método anycast é empregado. Um conjunto de vizinhos, denominado FCS (Forward Candidate Set), são escolhidos como bons encaminhadores para a mensagem de dados. O protocolo MAC seleciona como próximo roteador o membro do FCS que primeiro responde ao RTS. A seleção dos membros do FCS é baseada em dois parâmetros, a proximidade do nó Destino e a SINR (relação sinal-ruído/interferência) percebido pelo nó vizinho ao receber a mensagem RTS. A fim de avaliar o desempenho do MAC-AHEAD, este foi comparado com os protocolos X-MAC e PAX-MAC. Os resultados das simulações mostraram que o protocolo proposto supera os outros dois em latência e consumo de energia.

  • TIAGO ANDRE CARBONARO DE OLIVEIRA
  • CLASSIFICAÇÃO DE REGRAS DE UM CONTROLADOR SDN UTILIZANDO REDES NEURAIS ARTIFICIAIS

  • Data: 27 févr. 2019
  • Afficher le Résumé
  • novo paradigma de Redes Definidas por Software – SDN (Software Defined Networking)
    define a separação dos planos de controle e de dados. Neste tipo de rede, tal separação implica
    na inserção de mais um elemento da rede, o controlador. O protocolo de comunicação
    padrão conhecido como OpenFlow (OF), permite que os elementos de encaminhamento ofereçam
    uma interface de programação. Dessa forma, o OF possibilita ao administrador da rede,
    a extensão do acesso e controle da tabela de consulta utilizada pelo hardware. Esse tipo de
    controle determina o próximo passo de cada pacote, sendo construído através de regras programáveis.
    Diante desses novos conceitos e aplicações geradas pelas redes definidas por software,
    tornou-se necessário medir, testar e avaliar equipamentos que suportem esse tipo de tecnologia.
    O controlador atuando no switch SDN modifica diretamente o perfil do tráfego gerado, pois o
    mesmo vem acompanhado de influências de regras estáticas e dinâmicas (inseridas no controlador)
    que geram, em muitos casos, dúvidas ao profissional de rede sobre diagnósticos cotidianos.
    Uma ferramenta de classificação pode ser muito útil nesse contexto de regras estáticas e dinâmicas
    atuando sobre um tráfego amplo e repleto de valores variáveis. A utilização de uma Rede
    Neural Artificial (RNA), pode fornecer excelentes resultados. Contudo, uma RNA foi proposta
    como modelo de classificação de regras do controlador SDN de acordo com os parâmetros de
    tráfego efetivos, gerados por duas ferramentas específicas o BWPING e o OSTINATO. Além
    disso, o tráfego gerado foi baseado em quatro tipos de aplicações: ICMP, TCP, UDP e HTTP.
    O controlador utilizado foi o POX e a função das regras foi aplicada sobre a camada de Enlace
    abrangendo aspectos de encaminhamento. Alguns parâmetros como round-trip time, atraso,
    largura de banda, quantidade de pacotes e regras da tabela de fluxo, serviram de base para a
    alimentação da RNA. A modelagem e a simulação foram realizadas por meio de um ambiente
    laboratorial com equipamentos de rede e, também, com a utilização do virtualizador Mininet
    para a SDN. Os resultados dos experimentos mostraram desempenho satisfatório da rede neural,
    atingindo cerca de noventa por cento de acerto. Como trabalhos futuros serão testados outras
    aplicações, oriundas de outros protocolos, também serão testadas regras aplicadas em outras
    camadas com funcionalidades em nível de rede e transporte, por exemplo. E, por fim, também,
    serão testados outra versão do protocolo OpenFlow e outro tipo de controlador SDN.

  • MARCIO FELICIANO DO PRADO
  • KWH-PRO: UM ARCABOUÇO PARA ALOCAÇÃO DINÂMICA DE VMS E REDUÇÃO DO CONSUMO DE ENERGIA

  • Data: 20 févr. 2019
  • Afficher le Résumé
  • Atualmente, há uma crescente necessidade de armazenamento e processamento de dados. Isso
    vem fazendo com que cresça a implantação de data centers em todo o mundo. Estima-se que
    esses centros representem cerca de 2% do consumo mundial de energia elétrica, e a tendência
    é que esse consumo continue aumentando. Assim, é evidente a necessidade de pesquisas
    nesta área. Este trabalho apresenta um arcabouço, que tem como meta principal a redução do
    consumo de energia em data centers com VMs, e que a economia interfira minimamente no
    desempenho desses centros. Para atingir o objetivo, o arcabouço realiza, de forma automática,
    as seguintes tarefas: (i) monitoramento do consumo energético e da carga de trabalho de servidores,
    (ii) classificação de servidores utilizando os dados do monitoramento, (iii) alocação
    dinâmica de VMs com migração a quente e (iv) ligamento e desligamento de servidores. Para
    validação da eficiência do arcabouço, utilizou-se uma nuvem computacional implementada com
    o OpenStack. Foram executados vários experimentos, nos quais foi possível observar economia
    de energia de até 38%, ao custo de uma ligeira degradação do desempenho da nuvem que
    aparentemente é imperceptível.

2018
Description
  • BEN HUR BAHIA DO NASCIMENTO
  • UMA ABORDAGEM PARA ANÁLISE DE EXPRESSÕES FACIAIS EM TEMPO REAL

  • Data: 7 nov. 2018
  • Afficher le Résumé
  • Durante uma conversa entre seres humanos, 55% da informação é passada através
    de ações visuais, ou seja, expressões faciais e gestos. As expressões faciais
    são uma das principais características que os seres humanos usam para reconhecer
    as emoções uns nos outros. Este trabalho teve como objetivo desenvolver uma
    abordagem para reconhecimento de expressões faciais humanas utilizando redes
    neurais de convolução, que pudesse executar a pelo menos um quadro de vídeo
    por segundo. A abordagem detecta faces em uma imagem e retorna como resultado
    a probabilidade de cada uma dessas faces estar expressando uma das seguintes
    expressões faciais: raiva, desgosto, medo, felicidade, neutralidade, tristeza e surpresa.
    A abordagem proposta realiza uma etapa de pré processamento na imagem,
    onde a imagem da face é recortada, rotacionada e normalizada quanto a iluminação,
    com objetivo de padronizar as imagens com apenas informações relevantes.
    A imagem padronizada é classificada por uma arquitetura de rede neural de convolução,
    encontrada por um algoritmo evolutivo. A abordagem proposta foi validada
    em quatro conjuntos de dados comuns de expressões faciais e emoções, obtendo
    os seguintes resultados: Cohn-Kanade com 96,7%, JAFFE com 81,3%, FER 2013
    com 50,9% e SFEW com 32,4%. Quanto ao tempo de execução em tempo real, a
    abordagem executou a 6 quadros por segundo em um computador comum.

  • LUCCAS RAFAEL MARTINS PINTO
  • DECISÃO DO ESPECTRO BASEADO EM APRENDIZADO DE MÁQUINA PARA REDES DE RÁDIOS COGNITIVOS COM SUPORTE A COMUNICAÇÃO MULTI-SALTOS

  • Data: 25 oct. 2018
  • Afficher le Résumé
  • Os avanços tecnológicos nos últimos anos reduziram os custos de fabricação de dispositivos
    sem fio, aumentando o número desses dispositivos e a quantidade de aplicações que
    utilizam esses dispositivos. A maioria dessas aplicações é suportada por frequências ISM (Industrial,
    Scientific, and Medical), que devido à sua ampla utilização em vários tipos de dispositivos
    sofreram tamanha interferência que se tornou prejudicial para o bom funcionamento
    dessas aplicações.
    A Anatel (Agência Nacional de Telecomunicações), situada no Brasil, determina que
    as faixas ISM devem empregar frequências de 900MHz; 2.4GHz; 5.8GHz, sendo necessário
    ressaltar que a frequência de 2.4GHz é amplamente utilizada por redes Wi-fi, assim como o
    Bluetooth, e tantos outros. Semelhantemente, a 5.8GHz é muito utilizada em redes domésticas,
    visto que a nova tecnologia do Wi-Fi abrange essa faixa.
    Para resolver este problema, o paradigma de Rádios Cognitivos foi proposto para garantir
    a qualidade da comunicação. Diversos frameworks foram propostos para o desenvolvimento
    de uma Rede de Rádios Cognitivos (RRC), mas nenhum deles foi efetivamente implementado
    em hardware.
    Rádios Cognitivos são capazes de realizar transmissões em faixas de espectros licenciadas,
    evitando interferência na transmissão dos Usuários Primários, assim como em faixas não
    licenciadas, que não estejam em grande utilização. Os Rádios Cognitivos têm o potencial de
    prover alta largura de banda devido às suas características de sensoriamento e análise do espectro.
    É importante ressaltar que Redes de Rádios Cognitivos são capazes de realizar, de maneira
    autônoma, a reconfiguração da rede por meio de adaptação e aprendizado, no local em que a
    mesma se encontra inserida.
    Este trabalho apresenta uma ampliação de um framework para o desenvolvimento de
    Redes de Rádios Cognitivos em hardware real. O desenvolvimento dos conceitos de Rádio
    Cognitivo nos estágios de sensoriamento, decisão, compartilhamento e mobilidade do espectro
    auxiliaram na implementação de novos blocos. A arquitetura do framework, contou com a
    adição de dois novos modelos de decisão do espectro baseados em aprendizado de máquina, o
    HMM e o RnF. Além de dois algoritmos para a camada de rede, AODV e OSLR. Os resultados
    demonstraram a viabilidade da arquitetura e que os métodos de decisão baseados em algoritmos
    de aprendizado de máquina podem encontrar o melhor canal de comunicação. O método de
    decisão do espectro baseado no HMM obteve melhor resultado em relação aos outros métodos
    avaliados.

  • ROGER SANTOS FERREIRA
  • BIGFEEL - UM AMBIENTE DE PROCESSAMENTO DISTRIBUÍDO PARA INTEGRAÇÃO DE MÉTODOS DE ANÁLISE DE SENTIMENTOS

  • Data: 19 oct. 2018
  • Afficher le Résumé
  • A análise de sentimentos tem sido foco de muita pesquisa, devido principalmente à sua importância comercial, tanto para consumidores quanto para empresas. Muitos métodos têm sido propostos, e os principais têm sido comparados em termos de eficácia. Entretanto, há uma carência na literatura da avaliação de eficiência desses métodos para processamento de grandes volumes de dados, os quais são gerados em grande velocidade, volume e variedade, conhecidos como Big Data. O presente trabalho apresenta uma abordagem para integração de métodos de análise de sentimentos de forma a processar grandes volumes de dados em um ambiente distribuído, usando para tanto das plataformas Hadoop e Spark, ambas da fundação Apache. Desenvolveu-se uma aplicação protótipo em ambiente distribuído, denominada BigFeel, a qual oferece suporte ao uso de 22 métodos de análise de sentimentos, além de alguns métodos de processamento de linguagem natural e pré-processamento textual em grandes volumes de dados. O BigFeel oferece serviços adaptados ao uso em redes de computadores, locais e na web, além de oferecer uma API para desenvolvedores Scala/Java. A eficiência dos métodos integrados foi avaliada experimentalmente, demonstrando ganho em comparação à execução na implementação não distribuída dos métodos. Usando os recursos oferecidos pelo BigFeel, é apresentado ainda um estudo de caso de detecção de sugestões de inovação com base em revisões de produtos e serviços. Os resultados do estudo de caso demonstram uma alta revocação obtida e uma baixa precisão.

  • PAULO HENRIQUE DE ALMEIDA
  • RODOGE: PROTOCOLO DE DISSEMINAÇÃO DE MENSAGENS DE ALERTA DE ACIDENTES COM CONTROLES E REGRAS DE REENVIO DE MENSAGENS

  • Data: 19 oct. 2018
  • Afficher le Résumé
  • avanço no desenvolvimento tecnológico na área de Redes Sem Fio, em especial as Redes
    de Celulares com a quinta geração (5G), possibilitou a comunicação em diferentes locais e
    propósitos, com altas taxas de dados, escalabilidade e baixa latência. Espera-se que com este
    desenvolvimento as comunicações de dispositivo a dispositivo (D2D) desempenhem papel fundamental,
    pois permitem a comunicação direta entre dispositivos com baixo grau de envolvimento
    das estações base. Uma das comunicações crescente que pode usufruir deste avanço é a
    rede veicular, ou Vehicle Ad hoc Networks (VANET), na qual os veículos se comunicam com
    outros veículos e utilizam aplicações de segurança no trânsito. Entre as principais aplicações
    da VANET está a detecção e alerta de acidentes, que geralmente se baseia na transmissão de
    mensagens de alerta para outros veículos, bem como na transmissão desse alerta para dispositivos
    de infraestrutura. Cada veículo ou dispositivo de infraestrutura receptor também reenvia
    a mensagem de alerta, a fim de informar a situação a outros motoristas na região de interesse.
    O desafio nessas redes é reduzir a quantidade de mensagens reenviadas, que pode ocorrer de
    forma descontrolada e ocasionar na broadcast storm, que é inundação da rede por excesso de
    mensagens. Este trabalho propõe um protocolo para disseminação de mensagens de alerta com
    controle de reenvios chamado RODOGE - Rules to prevent Over-Dissemination Of messaGEs.
    As regras e funções aplicadas pela RODOGE limitam a disseminação de mensagens por veículos
    e dispositivos de infraestrutura, evitando a broadcast storm. O RODOGE foi testado e
    comparado com outros protocolos clássicos de disseminação de mensagens através de extensas
    simulações usando OMNeT ++, simulador de rede de computadores, SUMO, simulador de tráfego
    veicular e Veins, framework de junção, com tráfego urbano e rodoviário em dois cenários,
    Grid e Cologne, e simulações com um e dois acidentes. Os resultados mostram que o RODOGE
    reduz a quantidade de mensagens geradas e recebidas, evitando a inundação da rede, mantendo
    uma área de cobertura de mensagens suficiente para permitir que os motoristas reajam a um
    acidente detectado.

  • PIERCARLO FERMINO SOARES
  •  

    UM PROTOCOLO CROSS-LAYER HÍBRIDO PARA REDES DE SENSORES SEM FIO BASEADO EM BACKBONE


  • Data: 16 oct. 2018
  • Afficher le Résumé
  • Redes de sensores sem fio são redes formadas por nós sensores autônomos, normalmente alimentados por pequenas baterias. Isso torna a eficiência energética um problema muito importante no desenvolvimento de protocolos para esse tipo de rede. Tal problema é abordado de várias formas, sendo que a técnica de ciclos de trabalho como forma de economia de energia é um dos métodos empregados. Nesta estratégia, o rádio transceptor e outros centros de consumo de energia do nó sensor permanecem desligados a maior parte do tempo. Essa estratégia causa um atraso de propagação de mensagens entre nós vizinhos, resultando em um aumento da latência fim-a-fim na rede. Este trabalho apresenta um novo protocolo cross-layer baseado em  backbone, cujo objetivo é a redução da latência fim-a-fim sem alteração no consumo de energia. Este protocolo baseia-se no WiseMAC e utiliza ciclos de trabalho e encaminhamento de mensagens através de um backbone. Em simulações onde o backbone pode ser muito utilizado para o transporte de mensagens, os resultados mostraram que o protocolo implementado obteve uma redução na latência fim-a-fim quando comparado com o WiseMAC e com o XMAC, protocolos da literatura, mantendo um consumo energético compatível.

  • TIAGO ANTONIO PARAIZO
  • PVAF - UM AMBIENTE PARA DESAMBIGUAÇÃO DE VEÍCULOS DE PUBLICAÇÃO CIENTÍFICA

  • Data: 24 août 2018
  • Afficher le Résumé
  • Bibliotecas Digitais necessitam manter metadados de citações bibliográficas coletados de várias
    fontes, com isso podem existir entidades que sejam descritas de formas diferentes. Assim, o
    desenvolvimento de métodos que sejam capazes de identificar quais das diferentes descrições
    se referem a uma mesma entidade do mundo real tem se mostrado de grande importância. Uma
    outra característica das bibliotecas digitais é que elas possuem conteúdo dinâmico, isto é, estão
    em constante atualização, pelo fato de surgirem novas publicações a todo momento. O objetivo
    deste trabalho é desenvolver uma abordagem incremental para a desambiguação de títulos de
    veículos de publicação, além de aplicações envolvendo seus resultados. Para isso, um algoritmo
    de aprendizagem de máquina estático, baseado em regras de associação, foi modificado para
    receber atualizações incrementais, o que significa que novos dados de treinamento podem ser
    apresentados ao algoritmo durante a fase de predição. O trabalho também desenvolveu um
    sistema de gerenciamento de veículos de publicação, uma API que permite a integração dos
    resultados do algoritmo de aprendizado de máquina a outros sistemas, uma ferramenta capaz
    de realizar comparações de grupos de pesquisa com base na qualidade das publicações de seus
    membros. Foram realizadas avaliações experimentais das ferramentas desenvolvidas, as quais
    se mostraram eficazes para a solução dos problemas.

  • CHRISTIAN MARLON SOUZA COUTO
  • A QUALITY-ORIENTED APPROACH TO RECOMMEND MOVE METHOD REFACTORING.

  • Data: 23 août 2018
  • Afficher le Résumé
  • Não informado

  • ARTHUR FERREIRA PINTO
  • EMPIRICALLY SUPPORTED SIMILARITY COEFFICIENTS FOR THE IDENTIFICATION OF REFACTORING OPPORTUNITIES

  • Data: 7 mai 2018
  • Afficher le Résumé
  • Refatoração de código é definido como o processo de alteração de um sistema de software, preservando seu comportamento externo, mas melhorando sua estrutura interna. Por meio da refatoração, torna-se possível tratar os sintomas da arquitetura de código, conhecidos como Code Smells, que podem afetar características como portabilidade, reusabilidade, manutenibilidade e escalabilidade. Várias técnicas para identificar oportunidades de refatoração usam coeficientes de similaridade para encontrar entidades mal posicionadas na arquitetura do sistema, assim como determinar onde deveria estar localizada. Como exemplo, espera-se que um método esteja localizado em uma classe cujos outros métodos sejam estruturalmente semelhantes a ele. No entanto, os coeficientes existentes na literatura não foram projetados para a análise estrutural de sistemas de software, o que pode não garantir uma precisão satisfatória.

    Portanto, esta dissertação de mestrado propõe três novos coeficientes–PTMCPTMM PTEM–para melhorar a precisão da identificação de oportunidades de refatoração para as operações de Move ClassMove Method Extract Method, respectivamente. As principais contribuições são: (i) possibilitar a localização com mais precisão entidades posicionadas incorretamente em uma arquitetura de sistema e (ii) alavancar a precisão de ferramentas para identificação de oportunidades de refatoração com base na similaridade estrutural.

    Primeiramente, foi investigada a precisão de 18 coeficientes de similaridade em 10 sis- temas da base Qualitas.class Corpus (training set) e, com base nos resultados, foi selecionado o coeficiente mais adequado para ser adaptado. Em seguida, foi adaptado o coeficiente sele- cionado por meio de um experimento empírico composto de uma combinação de tratamentos com replicação sobre algoritmos genéticos para gerar os coeficientes propostos. Por fim, foi implementada AIRP, uma ferramenta que implementa os coeficientes propostos para identificar oportunidades de refatoração.

    Para avaliar os coeficientes propostos, foram comparados tais coeficientes com outros 18 coeficientes em outros 101 sistemas da base Qualitas.class Corpus (training set). Os resultados indicam, em relação ao melhor coeficiente analisado, uma melhora estatística de 5,23% a 6,81% para a identificação de oportunidades de refatoração Move Class, 12,33% a 14,79% para Move Method e 0,25 % a 0,40% para Extract Method.

  • ARTHUR FERREIRA PINTO
  • EMPIRICALLY SUPPORTED SIMILARITY COEFFICIENTS FOR THE IDENTIFICATION OF REFACTORING OPPORTUNITIES

  • Data: 7 mai 2018
  • Afficher le Résumé
  • Refatoração de código é definido como o processo de alteração de um sistema de software, preservando seu comportamento externo, mas melhorando sua estrutura interna. Por meio da refatoração, torna-se possível tratar os sintomas da arquitetura de código, conhecidos como Code Smells, que podem afetar características como portabilidade, reusabilidade, manutenibilidade e escalabilidade. Várias técnicas para identificar oportunidades de refatoração usam coeficientes de similaridade para encontrar entidades mal posicionadas na arquitetura do sistema, assim como determinar onde deveria estar localizada. Como exemplo, espera-se que um método esteja localizado em uma classe cujos outros métodos sejam estruturalmente semelhantes a ele. No entanto, os coeficientes existentes na literatura não foram projetados para a análise estrutural de sistemas de software, o que pode não garantir uma precisão satisfatória.

    Portanto, esta dissertação de mestrado propõe três novos coeficientes–PTMCPTMM PTEM–para melhorar a precisão da identificação de oportunidades de refatoração para as operações de Move ClassMove Method Extract Method, respectivamente. As principais contribuições são: (i) possibilitar a localização com mais precisão entidades posicionadas incorretamente em uma arquitetura de sistema e (ii) alavancar a precisão de ferramentas para identificação de oportunidades de refatoração com base na similaridade estrutural.

    Primeiramente, foi investigada a precisão de 18 coeficientes de similaridade em 10 sis- temas da base Qualitas.class Corpus (training set) e, com base nos resultados, foi selecionado o coeficiente mais adequado para ser adaptado. Em seguida, foi adaptado o coeficiente sele- cionado por meio de um experimento empírico composto de uma combinação de tratamentos com replicação sobre algoritmos genéticos para gerar os coeficientes propostos. Por fim, foi implementada AIRP, uma ferramenta que implementa os coeficientes propostos para identificar oportunidades de refatoração.

    Para avaliar os coeficientes propostos, foram comparados tais coeficientes com outros 18 coeficientes em outros 101 sistemas da base Qualitas.class Corpus (training set). Os resultados indicam, em relação ao melhor coeficiente analisado, uma melhora estatística de 5,23% a 6,81% para a identificação de oportunidades de refatoração Move Class, 12,33% a 14,79% para Move Method e 0,25 % a 0,40% para Extract Method.

  • JEAN ANTONIO RIBEIRO
  • UMA AVALIAÇÃO DE IMPLEMENTAÇÕES VIA OPENMP E PTHREADS DE DUAS HEURÍSTICAS PARA REDUÇÕES DE LARGURA DE BANDA DE MATRIZES

  • Data: 4 mai 2018
  • Afficher le Résumé
  • Neste trabalho, o objetivo foi propor dois algoritmos paralelos, em arquiteturas multicore, para
    solucionar os problemas de reduções de largura de banda e de profile de matrizes esparsas. Para
    isso, as linhas e colunas da matriz de coeficientes são permutadas, deixando-a com uma estrutura
    compacta, de modo que os coeficientes não nulos estejam próximos à diagonal principal.
    Os novos algoritmos paralelos foram comparados a algoritmos disponíveis na biblioteca HSL
    e nos softwares Octave e Matlab. Nas simulações, esses algoritmos serão aplicados como um
    pré-processamento na resolução de sistemas de equações lineares. Mais especificamente, os
    sistemas de equações lineares serão resolvidos pelo método dos gradientes conjugados precondicionado
    pela fatoração incompleta de Cholesky, em que a matriz de coeficientes é simétrica e
    positiva definida. Uma localidade de memória adequada contribui para a eficiência do método
    dos gradientes conjugados precondicionado, e essa característica pode ser obtida por reordenações
    de linhas e colunas da matriz de coeficientes. As bibliotecas a serem utilizadas são
    OpenMP e Pthreads. Espera-se mostrar a eficácia do(s) novo(s) método(s) e em qual biblioteca
    e/ou ambiente de execução o(s) novo(s) algoritmo(s) será(ão) mais eficiente(s).

  • CLAUDIO VINÍCIUS CARVALHO
  • UMA REVISÃO DE HEURÍSTICAS PARA RENUMERAÇÃO DE VÉRTICES PARA REDUÇÃO DO CUSTO DE EXECUÇÃO DO MÉTODO GMRES PRÉ-CONDICIONADO

  • Conseiller : SANDERSON LINCOHN GONZAGA DE OLIVEIRA
  • Data: 19 mars 2018
  • Afficher le Résumé
  • Sistemas de equações lineares envolvendo matrizes esparsas de grande porte surgem da discretização
    de equações diferenciais parciais, comuns em simulações computacionais de várias
    áreas da ciência. Métodos iterativos, como o Generalized Minimal Residual (GMRES) précondicionado,
    são os mais adequados para resolução desses sistemas. Quando se utiliza esses
    métodos, pode-se obter redução de seu custo computacional ao se aplicar técnicas de redução
    de largura de banda ou de profile nas matrizes envolvidas. Essas técnicas consistem em agrupar
    os coeficientes não nulos da matriz o mais próximo possível da diagonal principal por meio de
    permutações de suas linhas e colunas. Neste trabalho, avaliou-se o desempenho de métodos
    heurísticos no estado da arte para redução de largura de banda ou de profile no contexto de
    resolução de sistemas de equações lineares com o método GMRES pré-condicionado. Ainda,
    uma heurística baseada na meta-heurística Iterated Local Search para os problemas de redução
    de largura de banda e de profile de matrizes foi proposta. Nos testes realizados em 172
    instâncias da base SuiteSparse Matrix Collection a heurística proposta apresentou bons resultados,
    principalmente na redução de profile de matrizes assimétricas e de banda de matrizes
    simétricas. Contudo, seu alto tempo de execução não a qualificou como heurística propícia para
    reuzir o custo computacional do GMRES pré-condicionado. Doze métodos heurísticos foram
    avaliados nos experimentos para redução do custo de execução do GMRES pré-condicionado.
    Foram considerados seis pré-condicionadores, baseados em fatoração incompleta (ILUT, ILUC,
    ILU(k), VBILUT e VBILUK) e em multigrid (ARMS) em 27 instâncias de grandes dimensões.
    As simulações apontaram, em consonância com a literatura, que os melhores resultados na redução
    do custo computacional de sistemas de equações lineares são obtidos por heurísticas com
    baixo custo computacional, mesmo que não apresentem grandes reduções de largura de banda
    ou profile. Ainda, constatou-se que, para certas instâncias, nenhuma heurística contribuiu para
    a redução do custo de resolução dos sistemas com o GMRES pré-condicionado.

2016
Description
  • EDUARDO PETRINI SILVA CASTRO
  • IMPLEMENTAÇÃO DE ALGORITMOS DE REGRAS DE ASSOCIAÇÃO NOS ARCABOUÇOS HADOOP-MAPREDUCE E SPARK.

  • Data: 15 sept. 2016
  • Afficher le Résumé
  • Não informado

2015
Description
  • LUIZ AUGUSTO GUIMARÃES COSTA
  • ANÁLISE DA UTILIZAÇÃO DE AGENTES DE SOFTWARE EM REDES VEICULARES HÍBRIDAS UTILIZANDO ZIGBEE

  • Data: 27 févr. 2015
  • Afficher le Résumé
  • Não informado

SIGAA | DGTI - Diretoria de Gestão de Tecnologia da Informação - Contatos (abre nova janela): https://ufla.br/contato | © UFLA | appserver2.srv2inst1 29/09/2024 00:19