Publicações ano 2023


Periódicos Nacionais Indexados (8 Publicações)

Resumo

Neste artigo debatemos o uso de mídias sociais por parte dos Ministros do Supremo Tribunal Federal (STF), tomando como base as publicações no Twitter realizada por esses atores, entre o início da campanha eleitoral (16/08/2022) e o momento posterior à invasão dos Três Poderes (31/01/2023). A pesquisa parte de estudo anterior, que identificou uma lacuna com relação a estudos sociológicos sobre a produção de conteúdo digital em mídias sociais realizada por magistrados e combinou metodologias quantitativas e qualitativas para análise do conteúdo dos posts do Twitter dos Ministros do STF (coletados até julho de 2022). O artigo apresenta a segunda etapa da pesquisa, que mantém a metodologia utilizada e expande o período temporal da análise 

Palavras-Chaves: Democracia, Post, Eleição, Poder Judiciário

DOI: https://doi.org/10.5281/zenodo.8368032


Resumo

O artigo tem como objetivo principal discutir, através do estudo de caso das tecnologias blockchain, como as Novas Tecnologias de Informação e Comunicação (NTICs) se inter-relacionam com o controle e a vigilância dos sistemas. Inicialmente, considerando os debates da sociologia do trabalho e os recursos a uma metodologia qualitativa, analisamos como as tecnologias blockchain surgem em virtude da crise econômica e da necessidade de regulação dos mercados pós-crise de 2008. Na primeira parte, debatemos essa questão lançando um olhar sobre as dimensões de vigilância e controle dos mercados que se erigiram nesse contexto. Na segunda parte, discutiremos o surgimento do mercado de criptoativos liderado pelo Bitcoin e, principalmente, a dimensão tecnológica da rede blockchain. Entendemos que, embora haja uma tentativa de análise do Bitcoin como financeirização do capital, a dimensão de vantagens e desvantagens tecnológicas na criação da rede blockchain é um fator substancial e de grande impacto para a tomada de decisão de empresas dos mais variados ramos. A última parte do artigo aponta, por meio da análise quantitativa de relatórios e surveys, um encontro entre a operacionalidade oferecida pela tecnologia blockchain e a expectativa de implementação desta tecnologia em diversos setores empresariais, elucidando as vantagens competitivas elencadas por estes. Buscamos, então, compreender como a implementação dessas novas tecnologias aprofundam as dimensões de controle e vigilância das cadeias produtivas. 

Palavras-Chaves: Novas Tecnologias de Informação e Comunicação, Capitalismo digital, Blockchain, Cibersegurança, China

DOI: http://dx.doi.org/10.1590/1679-395120220020x


Resumo

Neste artigo, analisamos os fundamentos da sociologia histórica e sua pertinência no estudo da memória coletiva, de modo a elucidar a compreensão do negacionismo e sua incorporação na pesquisa sociológica. Inicialmente, confrontamos a tradição conflitiva da sociologia e resgatamos a formulação da memória individual e coletiva, estabelecendo um ponto de contato entre a macroestrutura e suas microrrelações sociais. A partir disso, identificamos como a concepção de negacionismo pode ser compreendida discursivamente, por meio das disputas pela significação da memória, ainda que em termos de uma apropriação manipuladora e política que se diferencia significativamente do revisionismo histórico. Finalmente, apresentamos alguns resultados de nossa pesquisa sobre a memória e a política de 1968, com vistas a interpretar como o negacionismo se erige na disputa pela memória do passado recente, demarcando um lugar de falseamento e ludibrio da opinião pública

Palavras-Chaves: Sociologia histórica, Memória coletiva, Identidades, 1968, Negacionismo

DOI: https://doi.org/10.52780/res.v28iesp.1.16110 


Resumo

Neste artigo, analisamos as ressonâncias entre o entulho autoritário presente nas instituições e o discurso “conservador” contemporâneo. Entendemos que a ausência de uma justiça de transição, combinada à manutenção dos poderes e privilégios das Forças Armadas na Carta de 1988, respalda tanto a atuação desses atores no passado, quanto práticas autoritárias por parte das instituições e entre os próprios cidadãos no presente. Mediante as oportunidades políticas surgidas no último decênio para a direita, observa-se a recuperação e atualização de argumentos muito frequentes naquele período como os da tutela militar, da ameaça comunista e da rejeição aos direitos humanos, que vêm sendo difundidos, sobretudo, pelas mídias sociais. 

Palavras-Chaves: Autoritarismo, Discurso Conservador, Forças Armadas, Direita, Mídias Sociais. 

DOI: https://doi.org/10.1590/SciELOPreprints.6954 


Resumo

Neste artigo discutimos se e em que medida as informações que circularam no WhatsApp durante as eleições presidenciais de 2018 poderiam caracterizar uma narrativa populista, e as relações desta com a democracia representativa e a ação conectiva. A partir da análise dos conteúdos veiculados nos grupos públicos do mensageiro, mostramos que estes apresentavam elementos que convergem para a caracterização tanto da narrativa populista, quanto das e-campanhas. Contudo, verificamos uma abordagem antissistêmica e odiosa, de caráter antipluralista, na qual o povo é incorpóreo e o líder é evocado, sobretudo nos conteúdos vinculados a Bolsonaro, o que sugere novas nuances do discurso populista autoritário na contemporaneidade.

Palavras-Chaves: Populismo, Campanhas digitais, WhatsApp, Eleições de 2018.

DOI:  https://doi.org/10.11606/0103-2070.ts.2023.210794 


Resumo

O presente artigo debate o uso de redes sociais por parte dos Ministros do Supremo Tribunal Federal (STF), tomando como base o Twitter. A pesquisa identifica uma lacuna com relação a estudos sociológicos e empíricos em direito sobre a produção de conteúdo digital em redes sociais realizada por magistrados. A hipótese é que o impacto e a qualidade do conteúdo produzido ainda precisam ser melhor estimados. O estudo utiliza-se da combinação de uma metodologia quantitativa de análise de redes sociais, com uso de métodos digitais, e de uma metodologia qualitativa para a análise do conteúdo dos posts do Twitter dos Ministros do STF. Evidenciamos que, embora haja poucas postagens dos Ministros, há constantes menções aos temas de direitos fundamentais, fato que traz esse conteúdo para os limites do direito e da política. O artigo conclui por lançar questionamentos acerca do alcance dessas postagens, bem como os debates sobre liberdade de expressão na magistratura brasileira e a crença na legitimidade democrática das instituições como o STF. 

Palavras-Chaves: Supremo Tribunal Federal, Twitter, Legitimidade, Poder Judiciário, Métodos Digitais

DOI: https://doi.org/10.11606/issn.2176-8099.pcso.2023.205567


Resumo

Neste artigo, discutimos os resultados do monitoramento das eleições brasileiras de 2022 nas plataformas You Tube, Instagram, Tik Tok, Twitter/X e Facebook, a partir das affordances presentes em cada uma delas. Com base na revisão bibliográfica, propomos uma tipologia de affordances, classificando-as de acordo com sua aplicação em campanhas e fluxos de informações políticas. Em seguida, apresentamos os procedimentos metodológicos da coleta realizada, observando as affordances visíveis na arquitetura algorítmica das plataformas. Ao analisar os dados, identificamos e discutimos as affordances em cada plataforma e as formas como se vinculam com conteúdos políticos. Concluímos apontando como se configuram as estratégias específicas para cada ambiente, além de evidenciar a construção de uma narrativa mais ampla e tecida por uma maior gama de atores, na qual as plataformas participam de diferentes maneiras da sua composição

Palavras-Chaves: Eleições Brasileiras de 2022, Plataformas, Affordances, Métodos Digitais, Comunicação Política

DOI: https://doi.org/10.22409/rmc.v18i1.59797 


Resumo

A partir da identificação de Abdin (2021) dos elementos que compõem a internet tida como situada “abaixo do radar” e das distinções entre redes invisível e visível de Bergman (2001), procura-se caracterizar e problematizar a atuação de jornalistas brasileiros em espaços obscuros do online. Como evidências, selecionamos reportagens publicadas entre 2016 e 2019, principalmente na revista e no site da Veja. A partir de pressupostos, observamos preocupantes limites técnicos e metodológicos que comprometem as operações do jornalismo. Para vencer essas barreiras, cujos efeitos são limitantes para o papel noticioso e informativo da profissão, propõe-se o prolongamento das pesquisas com revisões de métodos e aplicação de formas alternativas de apuração. 

Palavras-Chaves: Jornalismo brasileiro, Comunicação digital, Violência online, Internet profunda, Redes sociais

DOI: 10.11606/issn.2176-1507.v28i2p208-225 

Conferências Internacionais (3 Publicações)

Abstract

Network embedding methods map nodes into vector representations, aiming to preserve important properties of relationships between nodes through similarities in a latent vector-space model. Graph Neural Networks (GNNs) based on aggregate functions have received significant attention among different network embedding methods. In general, the embeddings of a node are recursively generated by aggregating embeddings from neighboring nodes. Aggregation is a crucial step in these methods, and different aggregation functions have been proposed, from simple averaging and max pooling operations to complex functions based on attention mechanisms. However, we note that there is a lack of studies comparing aggregate functions, especially in more practical real-world scenarios involving semi-supervised tasks. This paper introduces a methodology to evaluate different aggregation functions for semi-supervised learning through a model selection strategy guided by a statistical significance analysis framework. We show that Transformers-based aggregation functions are competitive for semi-supervised scenarios and obtain relevant results in different domains. Furthermore, we also discuss scenarios where “less is more”, mainly when there are constraints on the availability of computational resources. 

Keywords: Network Embedding, Graph Neural Networks, Semi-Supervised Learning, Aggregation Functions.

DOI: https://doi.org/10.1109/IJCNN54540.2023.10191468 


Abstract

Machine learning and deep learning models are pivotal in educational contexts, particularly in predicting student success. Despite their widespread application, a significant gap persists in comprehending the factors influencing these models’ predictions, especially in explainability within education. This work addresses this gap by employing nine distinct explanation methods and conducting a comprehensive analysis to explore the correlation between the agreement among these methods in generating explanations and the predictive model’s performance. Applying Spearman’s correlation, our findings reveal a very strong correlation between the model’s performance and the agreement level observed among the explanation methods.

Keywords: Explainable Artificial Intelligence, Educational Predictions, Student Success, Explanation Methods, Model Performance, Feature Importance, Correlation Analysis

DOI: https://doi.org/10.48550/arXiv.2405.13957




Resumo

Public security is a main challenge for Brazilian society, as crime is a major problem in large Brazilian cities such as São Paulo. An important issue in this context is to model and predict crime patterns considering historical data from each particular spatial location. In this work, we evaluate and compare different prediction models such as spatial autoregressive (SAR) and artificial neural network models (ANN). For ANN models we use as input data ranging from population, economic, and education indications to historical data of crimes in each geolocation. The SAR model takes into account the covariates, as well as the underlying spatial dependence of the data. 

Palavras-Chaves: Crime modelling; Geo-spatial data; Temporal data. 

ISBN978-3-947323-42-5


Conferências Nacionais e Latino Americanas (4 Publicações)


Resumen

En este artículo, continuamos nuestra investigación sobre la transposición del discurso autoritario en Brasil para los medios sociales. Presentamos los resultados del análisis de la actuación de los actores conservadores en dos plataformas digitales distintas: el Facebook y el Telegram. Observamos las publicaciones de las páginas oficiales de políticos conservadores y también los perfiles no oficiales y de sus partidarios en relación a los marcos atribuídos a las cuestiones de los derechos humanos, a las instituciones democráticas y a la violencia del Estado, así como las interacciones resultantes deste proceso, poniendo la prueba la hipótesis adaptada del argumento de Pinheiro (1991), que llamamos provisionalmente como “autoritarismo implantado digitalmente”. La propuesta forma parte de los esfuerzos del proyecto CEPID "Construir la democracia en la vida cotidiana: derechos humanos, violencia y confianza institucional", desarrollado por el NEV-USP y financiado por la FAPESP. 

Palabras-Claves: Autoritarismo, Democracia, Mídias Sociais, Facebook, Telegram.



Resumo

Neste artigo, analisamos as ressonâncias entre o entulho autoritário presente nas instituições e o discurso conservador contemporâneo. Entendemos que a ausência de uma justiça de transição, combinada à manutenção dos poderes e privilégios das Forças Armadas na Carta de 1988 e a não desmilitarização da polícia, respalda tanto a atuação desses atores no passado, quanto práticas autoritárias por parte das instituições e entre os próprios cidadãos no presente. Mediante as oportunidades políticas surgidas no último decênio para a direita, observa-se a recuperação e atualização de argumentos muito frequentes naquele período como os da/o: ameaça comunista, intervenção militar, punitivismo pré-moderno, assim como o da subserviência às elites internas e ao capital internacional (ainda que seu traço neoliberal tenha se aprofundado). A expansão da comunicação digital foi fundamental para difusão desta narrativa nos últimos pleitos, dada a lógica algorítmica e a larga desregulação destas redes.

Palavras-Chaves: Autoritarismo, Discurso Conservador, Forças Armadas, Direita, Mídias Sociais. 

URL: https://www.encontro2023.anpocs.org.br/atividade/view?q=YToyOntzOjY6InBhcmFtcyI7czozNjoiYToxOntzOjEyOiJJRF9BVElWSURBREUiO3M6MzoiNDMxIjt9IjtzOjE6ImgiO3M6MzI6ImI0NzYyOTU1ZTg2ZDZhOTEwMjQxMjkwNmNmYTFiZTkwIjt9&ID_ATIVIDADE=431


  



Resumo

Machine learning models are increasingly present in our society; many of these models integrate Web Systems and are directly related to the content we consume daily. Nonetheless, on several occasions, these models have been responsible for decisions that spread prejudices or even decisions, if committed by humans, that would be punishable. After several cases of this nature came to light, research and discussion topics such as Fairness in Machine Learning and Arti!cial Intelligence Ethics gained a boost of importance and urgency in our society. Thus, one way to make Web Systems fairer in the future is to show how they can currently be unfair. In order to support discussions and be a reference for unfairness cases in machine learning decisions, this work aims to organize in a single document known decision-making that was wholly or partially supported by machine learning models that propagated prejudices, stereotypes, and inequalities in Web Systems. We conceptualize relevant categories of unfairness (such as Web Search and Deep Fake), and when possible, we present the solution adopted by those involved. Furthermore, we discuss approaches to mitigate or prevent discriminatory effects in Web Systems decision-making based on machine learning. 

Palavras-Chaves: Data Bias, Machine Learning, Unfairness Examples, Web Systems

DOI: https://doi.org/10.1145/3617023.3617043 



Resumo

Unfair decision-making supported by machine learning, which harms or benefits a specific group of people, is frequent. In many cases, the models only reproduce the biases in the data, which does not absolve its responsibility for these decisions. Thus, with the increase in the automation of activities through machine learning models, it is mandatory to prospect solutions that add fairness factors to the models and clarity about the supported decisions. One option to mitigate model discrimination is quantifying the ratio of instances belonging to each target class to build data sets that approximate the actual data distribution. This alternative aims to reduce the responsibility of data on discriminatory effects and direct the function of treating them to the models. In this sense, we propose to analyze different types of data stratification, including stratification by sociodemographic groups that are historically unprivileged, and associate these stratification types to the fairer or unfairer models. According to our results, stratification by class and group of people helps to develop fairer models, reducing the discriminatory effects in binary classification.

Palavras-Chaves: analysis, binary classification, data bias, data stratification, discriminatory effects, fairness, machine learning, unfairness 

DOI: https://doi.org/10.5753/kdmile.2023.232582 


Capítulo de Livro (1 Publicação)

Resumo

Neste artigo analisamos novas apropriações do conceito de liberdade de expressão e modalidades de censura praticadas por agentes públicos e atores sociais no atual cenário político brasileiro. Tomamos como casos práticos a decisão do TSE que impediu a exibição de vídeo do canal Brasil Paralelo durante o segundo turno das eleições presidenciais de 2022, e as investigações movidas pelo STF sobre as campanhas de plataformas digitais contra o PL 2630/20. Relacionamos as concepções de liberdade de expressão e de censura dos atores sociais e estatais envolvidos com conceitos como “comunidades regressivas”, cunhado por teórico Olivier Voirol, e “censura por inundação”, utilizado por autores como Ignácio Ramonet e Cass Sustein. Nosso argumento é que, no contexto de uma “sociedade da desinformação”, as concepções tradicionais de liberdade de expressão e censura não dão conta de explicar algumas de suas atuais manifestações, o que exige novas abordagens teóricas e jurídicas para sua compreensão e enfrentamento. 

Palavras-Chaves: Liberdade de expressão, Censura, Desinformação, Brasil Paralelo, Google


Artigos Submetidos (3 Publicações)

Abstract

This study examines the securitization of democracy in Brazil and the US, focusing on the Capitol and Three Powers invasions, analyzing the roles of Presidents Trump and Bolsonaro, and their successors, in addressing far-right threats. Employing qualitative content analysis, the research reviews literature on the Copenhagen School and analyzes speeches and social media posts of key political figures to understand securitization strategies. The findings reveal that Trump and Bolsonaro's discourses undermined democracy by downplaying radical threats, while Biden and Lula adopted securitization discourses that recognized and aimed to mitigate these dangers. The study highlights the critical role of political discourse in democracy's securitization, suggesting effective strategies are vital for protecting democratic values. It contributes to understanding securitization's application in political crises and underscores the need for balanced securitization approaches. 


Abstract

Intelligent applications supported by Machine Learning have achieved remarkable performance rates for a wide range of tasks in many domains. However, understanding why a trained algorithm makes a particular decision remains problematic. Given the growing interest in the application of learning-based models, some concerns arise in the dealing with sensible environments, which may impact users’ lives. The complex nature of those models’ decision mechanisms makes them the so-called “black boxes,” in which the understanding of the logic behind automated decision-making processes by humans is not trivial. Furthermore, the reasoning that leads a model to provide a specific prediction can be more important than performance metrics, which introduces a trade-off between interpretability and model accuracy. Explaining intelligent computer decisions can be regarded as a way to justify their reliability and establish trust. In this sense, explanations are critical tools that verify predictions to discover errors and biases previously hidden within the models’ complex structures, opening up vast possibilities for more responsible applications. In this review, we provide theoretical foundations of Explainable Artificial Intelligence (XAI), clarifying diffuse definitions and identifying research objectives, challenges, and future research lines related to turning opaque machine learning outputs into more transparent decisions. We also present a careful overview of the state-of-the-art explainability approaches, with a particular analysis of methods based on feature importance, such as the well-known LIME and SHAP. As a result, we highlight practical applications of the successful use of XAI. 

Keywords: Black-box Models, Explainability, Explainable Machine Learning, Interpretability, Interpretable Machine Learning

DOI: https://doi.org/10.1109/ACCESS.2024.3409843


Abstract

The development of machine learning applications has increased significantly in recent years, motivated by the remarkable ability of learning-powered systems to discover and generalize intricate patterns hidden in massive datasets. Modern learning models, while powerful, often have a level of complexity that renders them opaque black boxes, resulting in a notable lack of transparency that hinders our ability to decipher their reasoning. Opacity challenges the interpretability and practical application of machine learning, especially in critical domains where understanding the underlying reasons is essential for informed decision-making. Explainable Artificial Intelligence (XAI) rises to address that challenge, unraveling the complexity of black boxes by providing elucidating explanations. Among the various XAI approaches, feature attribution/importance stands out for its capacity to delineate the significance of input features in the prediction process. However, most existing attribution methods have limitations, such as instability, when divergent explanations may result from similar or even the same instance. This work introduces T-Explainer, a novel local additive attribution explainer based on Taylor expansion. It has desirable properties, such as local accuracy and consistency, making T-Explainer stable over multiple runs. We demonstrate T-Explainer's effectiveness in quantitative benchmark experiments against well-known attribution methods. Additionally, we provide several tools to evaluate and visualize explanations, turning T-Explainer into a comprehensive XAI framework. 

Keywords: Black-box models, explainable artificial intelligence, XAI, interpretability, local explanations.

DOI: https://doi.org/10.48550/arXiv.2404.16495 


Outras Publicações (10 Publicações)

URL: https://abes.com.br/a-democracia-e-seus-artifices-o-papel-dos-agentes-de-na-era-da-informacao/



URL: https://itforum.com.br/colunas/crime-e-tecnologia-correndo-atras-do-prejuizo/