Author: Jorge Machado

Entre Opacidade e Oligopólio: a Tecnopolítica da IA generativa, por Jorge Machado

Tem sido crescente a preocupação com a forma como a sociedade incorpora sistemas de inteligência artificial generativa ao cotidiano. Há uma transformação silenciosa na infraestrutura que organiza e produz conhecimento, influencia decisões e participa, cada vez mais, da formação de visões de mundo. Esses sistemas cumprem tarefas com grande eficiência, ajudam a esclarecer assuntos e podem emular conversas com profissionais de diferentes áreas – como psicólogos, sociólogos, juristas ou médicos. Vão muito além disso, gerando vídeos, música e conteúdos midiáticos cuja distinção em relação às criações autenticamente humanas tem se tornado progressivamente mais difícil. Aos poucos, esses sistemas passam a ocupar espaços antes desempenhados por humanos, remodelando diferentes aspectos da vida social.

portrait of a man wearing a blue hoodie
Photo by Jakson Martins on Pexels.com

Em 2025, os investimentos em inteligência artificial por parte das Big Techs foram estimados entre US$ 300 e 400 bilhões (Subin, 2025). Para 2026, projeções indicam cerca de US$ 630 bilhões apenas entre as maiores empresas – Microsoft (principal investidora da OpenAI), Meta, Google e Amazon. Quando considerados também grandes provedores de infraestrutura, como Oracle e CoreWeave, na ordem de US$ 273 bilhões, esse montante alcança valores ainda mais elevados (Kwok, 2026). No agregado, diferentes estimativas sugerem que os investimentos acumulados no biênio 2025-2026 se aproximam ou superam a marca de US$ 1 trilhão.

Esse ecossistema também possui uma base material significativa: chips, data centers, cabos submarinos, satélites e cadeias globais de hardware, cuja sustentação industrial depende de commodities cada vez mais disputadas, como silício, estanho, prata e elementos de terras raras. Nesse sentido, a tecnopolítica da IA se projeta diretamente sobre a geopolítica, afetando o Sul Global de diferentes formas – não apenas no plano informacional.

Trata-se de um dos maiores ciclos de investimento tecnológico concentrado em um curto período, comparável – em escala e velocidade – a momentos históricos de reorganização econômica, como o Plano Marshall. Nesse contexto, observa-se uma forte tendência à oligopolização: nas condições atuais, competir com os ecossistemas das Big Techs exige um volume de capital e um nível de infraestrutura que torna a entrada de novos atores extremamente difícil.

Para além da concentração econômica, esses sistemas são marcados por um alto grau de opacidade. Essa opacidade é tripla: técnica, devido à complexidade dos modelos; corporativa, em função do sigilo industrial; e epistêmica, pela dificuldade de rastrear como determinadas saídas são produzidas. Os dados utilizados, as arquiteturas dos modelos, os processos de treinamento e os ajustes finos (fine-tuning) são protegidos por “segredo de negócio”. Como resultado, torna-se difícil compreender como as respostas são geradas, identificar vieses – como racismo ou etnocentrismos – ou avaliar distorções sistemáticas.

Veja texto completo no Blog da Biblioteca Virtual do Pensamento Social.

IA Generativa: cadê a Transparência nos modelos fechados?

A Inteligência Artificial Generativa (Gen AI) deixou de ser uma promessa futurista para se tornar uma tecnologia crítica e estruturante da nossa sociedade contemporânea. Sua influência é vasta e profunda: ela automatiza processos industriais, redefine o mercado de trabalho, impacta a segurança nacional e transforma radicalmente a educação e a produção de conhecimento. No entanto, essa rápida adoção traz consigo desafios técnicos, éticos e políticos monumentais que a sociedade ainda não foi capaz de resolver.

Em nosso estudo mais recente, coordenado pelo Prof. Jorge Machado, analisamos o comparamos os modelos de inteligência artificial fechados (proprietários) e os modelos de código aberto (open source). O objetivo não foi apenas técnico, mas político: entender como garantir que a IA sirva ao interesse público e não apenas a oligopólios tecnológicos.

A Armadilha da “Caixa-Preta” e o Risco da Opacidade

A maior parte das ferramentas de IA que utilizamos hoje — desenvolvidas por gigantes como OpenAI, Google e Microsoft — opera sob um regime de severa opacidade técnica. Em nossa pesquisa, caracterizamos esses sistemas como verdadeiras “caixas-pretas”. Para o usuário comum, para os órgãos reguladores e até para a comunidade científica, o funcionamento interno desses modelos permanece oculto. Não temos acesso ao código-fonte, aos pesos pré-treinados e, crucialmente, aos imensos bancos de dados utilizados no treinamento.

Essa falta de transparência não é um mero detalhe de propriedade intelectual; ela representa uma barreira instransponível para a responsabilização. Teóricos como Frank Pasquale e Jenna Burrell já alertavam que algoritmos secretos que controlam fluxos de informação e dinheiro criam uma “sociedade de caixas-pretas”. Na era da Gen AI, esse risco é amplificado porque esses modelos não apenas processam dados, eles geram realidade. Sem auditoria, não podemos verificar se a IA está reproduzindo vieses racistas, sexistas ou de classe, nem prever como ela se comportará diante de ataques maliciosos que visam manipular sua lógica interna.

Desinformação em Escala Industrial: O Caso da Rede Pravda

Um dos pontos alarmantes apontados em nosso estudo é a vulnerabilidade dos modelos fechados à manipulação externa, um fenômeno conhecido como “data poisoning” (envenenamento de dados). Citamos o caso da Rede Pravda, revelado por auditorias da NewsGuard. Em 2024, essa rede publicou cerca de 3,6 milhões de artigos em 150 domínios diferentes, espalhando narrativas de desinformação em dezenas de idiomas para atingir 49 países.

O resultado foi devastador: todos os dez principais chatbots do mercado, incluindo ChatGPT, Gemini e Claude, foram “contaminados”, replicando informações falsas da Pravda como se fossem fatos verificados. Como as empresas mantêm seus bancos de dados de treinamento em segredo, torna-se impossível para a sociedade civil identificar de onde vem a distorção. Isso prova que modelos fechados, apesar de prometerem segurança, são frequentemente mais vulneráveis a manipulações que os desenvolvedores sequer percebem estar ocorrendo.

O Paradigma da Abertura e o Mito dos Modelos “Semi-Abertos”

A transparência é a única forma de garantir uma IA ética.

Neste cenário, modelos como o BLOOM e o OLMo surgem como faróis. Enquanto modelos como Llama (da Meta) ou Mistral são frequentemente chamados de “abertos”, há que se fazer uma ressalva importante: eles são, na verdade, parcialmente fechados, pois não disponibilizam os detalhes do seu “pipeline” de treinamento ou os dados brutos. Já modelos puramente abertos permitem que pesquisadores independentes:

  • Verifiquem a integridade: examinando os dados para mitigar preconceitos antes que eles cheguem ao usuário.
  • Identifiquem vulnerabilidades: permitindo que especialistas em cibersegurança corrijam falhas de forma colaborativa e rápida.
  • Garantam a reprodutibilidade: um pilar da ciência que é impossível em modelos proprietários onde os resultados podem ser alterados unilateralmente pelas empresas.

O Custo Invisível: Água, Energia e Clima

Um detalhe que o grande público raramente vê é o impacto ambiental da IA. O treinamento de modelos fechados é notoriamente opaco quanto ao seu consumo de recursos. Estudos citados em nossa análise revelam que o treinamento do GPT-3 em data centers nos EUA consumiu diretamente cerca de 700 mil litros de água potável — número que poderia triplicar se realizado em regiões com infraestrutura menos eficiente.

A abertura tecnológica também é uma ferramenta de sustentabilidade. O modelo aberto BLOOM, por exemplo, demonstrou ser 20 vezes mais eficiente em termos de emissão de carbono do que o GPT-3 (emitindo 25 toneladas de CO2 contra 502 toneladas do concorrente fechado). A transparência permite experimentos de otimização que reduzem o desperdício de energia e água, algo que as corporações tendem a ignorar em prol da performance pura e simples.

Conveniência Imediata ou Soberania de Longo Prazo?

É inegável que modelos fechados são atraentes: oferecem suporte dedicado, são fáceis de implementar e não exigem grandes investimentos em infraestrutura local. No entanto, essa facilidade tem um preço: o “technological lock-in” (aprisionamento tecnológico). Países e instituições que dependem exclusivamente de sistemas estrangeiros e fechados perdem sua autonomia e tornam-se reféns de mudanças unilaterais em termos de uso e custos.

A conclusão é clara: a escolha entre modelos abertos e fechados não é apenas técnica, mas uma decisão sobre que tipo de sistemas são mais justos e confiáveis para a sociedade. Precisamos de uma IA que seja Aberta, Pública e Segura — um framework que privilegie a governança multissetorial, o interesse público e a soberania tecnológica, permitindo nações em desenvolvimento não sejam apenas consumidores, mas protagonistas dessa revolução tecnológica.

——————————————————————————–

Este é o primeiro texto de uma série de três sobre o futuro da IA e Setor Público.

Para ler o artigo científico completo com todos os dados e tabelas da pesquisa, acesse: https://arxiv.org/abs/2505.10603

A IA Generativa e o Futuro da Participação Cidadã: Pesquisas em Andamento

Desde outubro de 2024, o Prof. Jorge Machado está no The Open Government Institute, da Universidade Zeppelin, na Alemanha. No dia 17 de fevereiro, junto com o Prof. José Carlos Vaz, do curso Gestão de Políticas Públicas da USP, ele apresentou descobertas sobre como a inteligência artificial generativa pode transformar a administração pública e a participação social.

Ambos pesquisadores investigam como modelos de linguagem avançados podem ser utilizados para melhorar a qualidade e a eficácia em processos de participação cidadã. No entanto, há desafios a serem superados. Um deles é que os cidadãos frequentemente têm dificuldade em formular suas demandas de forma estruturada. Isso faz que muitas propostas fracassem devido a obstáculos legais ou financeiros.

A IA poderia ajudar a gerar propostas com base em bancos de conhecimento e transformá-las em minutas juridicamente viáveis.

Friedrichshafen feb2025

Desafios e questões éticas

Essa abordagem levanta preocupações importantes:

  • Como estabelecer padrões e diretrizes para o uso de IA em processos participativos?
  • Quais são os riscos éticos, como manipulação, vieses ou falta de transparência nas decisões?
  • Testes recentes com modelos como GPT 4.0 e LLaMA mostram resultados promissores, mas também destacam a necessidade de sistemas de IA auditáveis, seguros e transparentes.

Outro problema é a assimetria no acesso a dados públicos: enquanto empresas e organizações usam ferramentas analíticas avançadas, muitos cidadãos carecem de conhecimento e acesso a essas tecnologias.

IA para fortalecer a participação

O foco atual é desenvolver IA generativa que fortaleça processos participativos, servindo como ponte entre governo e sociedade, sem comprometer a integridade das decisões. Governos e administrações públicas precisam entender a reflexividade da IA para aproveitar seu potencial de forma responsável.

Contribuição do Prof. José Carlos Vaz

O Prof. Dr. José Carlos Vaz – que atualmente ocupa a cátedra da CAPES Brasil-Alemanha, na Universidade de Muenster – complementa essa pesquisa com seu trabalho sobre participação online em cidades inteligentes. Seu modelo analítico estuda como as tecnologias digitais podem transformar o engajamento político em áreas urbanas, abordando temas como:

  • Inclusão digital
  • Transparência
  • Governança

Sua recente visita à Universidade de Zeppelin reforçou a importância da cooperação internacional para compartilhar conhecimento e aprimorar conceitos inovadores de participação digital.

A combinação de IA generativa e plataformas digitais de participação pode estabelecer um novo padrão para processos decisórios democráticos — desde que questões éticas e regulatórias sejam devidamente consideradas.

Esse texto foi por Joern Von Lucke (Zeppelin Universitaet), traduzido do alemão e adaptado para esta versão.

Colab em evento na Universidade de Münster sobre IA e Participação

No dia 13 de janeiro de 2025, participei do seminário internacional “Exploring Online Political Participation and AI in Local Governments”, realizado no Institut für Politikwissenschaft (IfPol), da Universidade de Münster, na Alemanha. O evento reuniu pesquisadores para discutir as mais recentes pesquisas sobre participação política online em governos locais e o papel da inteligência artificial (IA). A sessão foi organizada pelo Prof. Dr. Norbert Kersting e contou com a participação de especialistas do IfPol, da Brazil Chair e outros convidados, como eu, representando o COLAB/USP e a Zeppelin Universität, onde estou como professor visitante.

Durante o seminário, apresentei o trabalho intitulado “Participatory Public Management using Generative AI: studies and evidence on its application”. Minha apresentação explorou os potenciais e desafios do uso de IA generativa na gestão pública participativa. Abordei como essa tecnologia pode ser utilizada para aprimorar a qualidade das propostas feitas por cidadãos e cidadã, aumentando também suas chances de aprovação em processos de consulta pública. No evento, compartilhei alguns testes sobre sua aplicação em contextos locais, destacando suas vantagens e desafios.

O evento foi uma oportunidade interagir com pesquisadores na Universidade de Münster, trocando ideias sobre como a IA pode transformar as relações entre governos locais e a sociedade. As discussões também reforçaram a importância de integrar tecnologias emergentes com princípios éticos e democráticos, garantindo que o uso da IA seja guiado por valores que promovam a transparência e direitos.

Política de inclusão da USP acaba por excluir maioria dos indígenas

Por Jorge Machado, COLAB/USP

O último Censo revelou que a população indígena do Brasil é de 1,7 milhões de pessoas. Isso significa um notável crescimento em relação ao censo anterior, de 2010, quando foram registrados 896 mil indígenas1. Sujeitos historicamente à situações de discriminação e violência, a população de ancestralidade indígena foi sujeita a invisibilidade. O aumento da autodeclaração possui grande significado para o resgate da identidade indígena, conforme afirmou a Ministra dos Povos Indígenas, Sônia Guajajara, no lançamento do “Censo 2022 Indígenas: Primeiros resultados”, em Belém, no mês passado2.

No entanto, a Universidade de São Paulo tem entendimento particular sobre quem pode ser reconhecido como indígena. A Resolução 8434/2023 da USP exige a apresentação do Registro Administrativo de Nascimento Indígena (RANI) como prova de ser indígena. De acordo com a norma:

Artigo 3º – Para confirmação da autodeclaração do candidato indígena será exigido o Registro Administrativo de Nascimento do Índio – RANI próprio ou, na ausência deste, o RANI de um de seus genitores.

Parágrafo único – Situações excepcionais poderão ser avaliadas pelo Conselho de Inclusão e Pertencimento, que poderá admitir a confirmação da autodeclaração do candidato como indígena por meio de, cumulativamente, memorial e declaração de pertencimento étnico subscrita por caciques, tuxauas, lideranças indígenas de comunidades, associações e/ou organizações representativas dos povos indígenas das respectivas regiões, sob as penas da Lei.”

Na ausência do RANI, a USP pede um memorial e “declaração de pertencimento étnico” assinada por lideranças indígenas “sob penas da Lei”. Cabe dizer que o RANI tem a função de registrar nascimentos em aldeias distantes, onde não há hospitais e maternidades, servindo como meio de prova para Registro Civil e emissão da Certidão de Nascimento3. A maioria dos indígenas não possuem o RANI. O último dado público disponível, ainda do Censo 2010, apontou que apenas 22,7% dos indígenas (203 mil) possuíam o RANI4. Sendo assim, além do desvio de sua função, a exigência do RANI constitui um critério altamente excludente para os indígenas.

A exigência do RANI é ainda mais grave quando levamos em consideração que existem indígenas de outros países, especialmente andinos, vivendo no país. Para a USP somente há indígenas no Brasil. Apenas no Estado de São Paulo, há 360 mil estrangeiros. Destes, é estimado que 1/3 sejam bolivianos – nesse país, cerca de 88% de sua população possui origem indígena ou mestiça5. Afirmar que só brasileiros podem ser considerados indígenas é a mesma coisa que dizer que africanos não podem ser considerados pretos ou pardos.

De acordo com a FUNAI, O RANI é um documento administrativo e não confere nenhum benefício
especial ao seu possuidor, nem é garantia ou condição exclusiva de pertencimento étnico. Segundo ainda a FUNAI6, “de acordo com o ordenamento jurídico brasileiro, não há órgão, entidade ou instituição por si próprio que tenha o poder de atestar, declarar, certificar, validar, confirmar ou ratificar a origem de qualquer cidadão enquanto indígena.” Logo a USP não teria esse poder.

Tal entendimento é convalidado pelo Estatuto do Índio e pela Convenção nº 169 da Organização Internacional do Trabalho (OIT) sobre Povos Indígenas e Tribais, reconhecida pelo Brasil através do Decreto nº 5.051/2004. Posteriormente, outro decreto, o 10.088/2019, veio consolidar os atos normativos federais relativos a Convenção nº 169 da OIT. Este decreto estabelece em seu artigo 1º que “a consciência de sua identidade indígena ou tribal deverá ser considerada como critério fundamental para determinar os grupos aos que se aplicam as disposições da presente Convenção”.

Se a USP pretende estabelecer algum fator limitante para evitar eventuais abusos, então que exija uma autodeclaração do candidato(a) e que a mesma tenha caráter público, para fins de controle social. Não deveria fazer exigências descabidas, para além do que a FUNAI e a legislação federal estabelece.

A USP precisa rever a resolução que norteia as políticas da PRIP para que os resultados alcançados não sejam contrários aquilo que se espera alcançar, sob o risco de gerar barreiras adicionais à visibilidade e à representação de indivíduos de ancestralidade indígena.

Notas:

1https://www.gov.br/funai/pt-br/assuntos/noticias/2023/dados-do-censo-2022-revelam-que-o-brasil-tem-1-7-milhao-de-indigenas

2https://g1.globo.com/pa/para/noticia/2023/08/07/censo-do-ibge-2022-as-pessoas-estao-estao-a-vontade-para-dizer-que-sao-indigenas-diz-ministra-sonia-guajajara.ghtml

3 De acordo com o “Estatuto do Índio”, Lei 6.001/73, Artigo 13, “o registro administrativo constituirá, quando couber, documento hábil para proceder ao registro civil do ato correspondente, admitido, na falta deste, como meio subsidiário de prova”. http://www.planalto.gov.br/ccivil_03/leis/l6001.htm

4https://www.ibge.gov.br/apps/atlas_nacional/pdf/ANMS%20Indio.pdf

5https://www.cia.gov/the-world-factbook/countries/bolivia/#people-and-society

6 https://www.gov.br/funai/pt-br/assuntos/noticias/2023/funai-explica-aspectos-do-registro-administrativo-de-nascimento-de-indigena-rani

Projeto desenvolvido pelo COLAB é vencedor do Prêmio Fundação Banco do Brasil

O projeto Monitorando a Cidade, desenvolvido pelo COLAB, conquistou o primeiro lugar na edição de 2021 do Prêmio Fundação Banco do Brasil, na categoria Inovação Digital. O projeto da EACH foi selecionado entre mais de 450 iniciativas inscritas para receber um troféu e o prêmio de 100 mil Reais para ser investido em seu aprimoramento.

O Monitorando é uma iniciativa de coleta de dados cidadã que foi e está sendo  utilizada por diversos movimentos sociais, organizações da sociedade civil e órgãos de controle  para engajar beneficiários de políticas públicas (por exemplo: alunos de escolas públicas) na fiscalização da entrega desses serviços (por exemplo: oferta da merenda escolar). Também já foi utilizado em contextos de coleta de dados sobre meio ambiente em projetos de popularização da ciência. É uma ferramenta flexível, aberta e sob licença livre.

Seu uso em diferentes contextos tem sido estudado e, entre outras produções acadêmicas, destacamos  a dissertação de mestrado de Marisa Villi, selecionada pelo Programa de Pós-graduação em Mudança Social e Participação Política como uma das melhores dissertações produzidas no período de 2017-2020.

Para entender como a tecnologia é usada na prática:

Exemplo de como estudantes atuaram no monitoramento da merenda

Exemplos de seu uso na iniciativa da Controladoria Geral do DF que envolveu 4000 alunos e 209 docentes , em 104 escolas. Monitoramento de diversos aspectos da infraestrutura escolar (merenda, biblioteca, salas de aula, banheiros, etc):

https://globoplay.globo.com/v/6393234/programa/

http://tvbrasil.ebc.com.br/reporter-df/2018/03/projeto-da-corregedoria-do-df-transforma-ambiente-escolar

Exemplo do emprego da tecnologia no projeto Conexão Água – Biomonitorando realizado pelo Ministério Público Federal (SP) e Embrapa que leva uma metodologia de avaliação da água através da observação de biomarcadores.

Utilização no projeto do edital Aprender na Comunidade sobre mobilidade ativa em escola pública no entorno da USP Leste.

Texto original: site da EACH USP

Aberta fase de priorização de temas para o 4º Plano de Ação Brasileiro

Está aberta a fase de votação dos temas propostos pela sociedade civil para construção do 4º Plano de Ação do Brasil na Parceria para Governo Aberto.

Conforme definido na metodologia de trabalho aprovada pelo Comitê Interministerial Governo Aberto (CIGA) e pelo Grupo de Trabalho da Sociedade Civil para Assessoramento em Governo Aberto para elaboração do 4º Plano de Ação Nacional, foi realizada, entre os dias 4 e 22 de abril, a coleta de sugestões de temas que a sociedade considera importantes serem tratados por meio de políticas de Governo Aberto. As sugestões, que foram compiladas em grandes linhas temáticas para avaliação do GT da Sociedade Civil.

Com a aprovação do Grupo, inicia-se, a partir de agora, uma nova etapa do processo: a votação nos temas propostos. A consulta pública ficará disponível até o dia 6 de maio e pode ser realizada por meio do formulário online disponível aqui (acessível somente por Mozilla Firefox e Google Chrome).

Vale lembrar que a Parceria para Governo Aberto – Open Government Partnership (OGP) é uma iniciativa internacional integrada por mais de 70 países, da qual o Brasil é membro-fundador. A OGP tem como objetivo incentivar globalmente práticas relacionadas à transparência dos governos, ao acesso à informação pública, à inovação e à participação social, e suas ações são operacionalizadas por meio de um Plano de Ação. Nesse documento, cada país participante define seus compromissos e delimita as estratégias e atividades para concretizar ações nas quais precisa se desenvolver. Os planos de ação possuem duração de até dois anos. Neste momento, o Brasil está em fase de execução do 3º Plano de Ação e início da elaboração do 4º Plano.

 

Vagas para assistentes de pesquisa para alunxs de Gestão de Políticas Públicas/USP

Atualização: prorrogado até as 13hs de quarta (21/03)

A Transparência Brasil e o Colab contratam assistentes de pesquisa do projeto Achados e Pedidos . Candidata(o)s devem ser estudantes de gestão de políticas públicas da USP.

transparencia_brasil 

Sobre a Transparência Brasil

A Transparência Brasil foca sua atuação na busca pela integridade do poder público, principalmente por meio do aumento da informação disponível. Seu trabalho é dividido em duas áreas: monitoramento das instituições e advocacy.

O primeiro diz respeito a processamento e análise de dados públicos brutos e à sua tradução em informação útil para o cidadão. Ele é realizado por meio das seguintes atividades:

 ·   Criação de instrumentos na Internet para propiciar o monitoramento do fenômeno da corrupção;
·    Produção de relatórios, estudos e levantamentos empíricos sobre a incidência do problema da corrupção em diferentes instituições, esferas e níveis de governos.

O segundo diz respeito ao fomento do debate público sobre temas relevantes envolvendo corrupção e integridade das instituições. Essa parte do trabalho é realizada por meio do engajamento nas seguintes atividades:
·    Participação dos conselhos de Transparência da Controladoria Geral da União, do Senado Federal e do Governo do estado de São Paulo;
·    Colaboração na mídia, por meio de entrevistas, levantamentos exclusivos ou artigos.

Sobre o projeto Achados e Pedidos

O projeto consiste num repositório colaborativo de pedidos de informação cujo intuito é monitorar a aplicação da Lei de Acesso à Informação (LAI) pelos órgãos públicos brasileiros, além de disseminar o seu uso entre jornalistas, pesquisadores e cidadãos não-especialistas. No relatório “Quase metade dos órgãos públicos brasileiros descumprem a Lei de Acesso” (https://goo.gl/8XxHj6), analisamos as diversas falhas do poder público na aplicação da lei, como a divulgação de dados pessoais e o descumprimento de prazos de resposta. O Achados e Pedidos é feito em parceria com a Associação Brasileira de Jornalismo Investigativo (Abraji) e financiado pela Fundação Ford. Acesse em http://achadosepedidos.org.br.

Sobre a Lei de Acesso à Informação (LAI)

Promulgada em 2013, a LAI (lei 12.527/2011) regulamenta o direito à informação garantido pela Constituição Federal. Por meio dela, o cidadão pode requerer uma série de informações ao poder público, que deverá obrigatoriamente respondê-lo em até 30 dias.

Sobre a parceria Transparência Brasil e Colab

A pesquisa a ser realizada consiste na análise de dados de mais de 30 órgãos públicos brasileiros obtidos no âmbito do projeto Achados e Pedidos. Os dados serão utilizados pela Transparência Brasil e pelo Colab para a produção de um estudo inédito que ofereça diagnósticos sobre a aplicação da LAI, dando suporte ao debate sobre o atendimento e temática das solicitações de acesso à informação.

Perfil

É necessário que o/a candidato/a esteja cursando a partir do segundo ano o curso em Gestão em Políticas Públicas. É necessário que seja organizado/a, com boa capacidade de leitura e interpretação e que consiga manter a concentração para realizar tarefas repetitivas. A entrega de trabalho será diária, o que exige do/a bolsista disciplina e comprometimento. Também é desejável que possua interesse nos temas de transparência institucional e acesso à informação, áreas de atuação da Transparência Brasil.

Descrição das atividades

Os/as bolsistas serão responsáveis por classificar as respostas que os órgãos públicos dão aos pedidos de acesso. Haverá um treinamento para realização das atividades, possivelmente na Transparência Brasil, localizada no bairro de Pinheiros. Haverá acompanhamento presencial e/ou à distância de um analista da Transparência Brasil, responsável por coordenar as atividades e sanar dúvidas.

Valor da bolsa: R$ 700,00.
Duração: 3 meses.
Vagas: 3.
Início: 1º de abril de 2018.

Disponibilidade: 4h diárias para trabalho em casa e/ou no laboratório de informática em horários previamente acordados. É importante informar qual é o período de tempo que possui disponível.

É necessário possuir máquina própria a partir da qual possa realizar as atividades.

Está em negociação a possibilidade da atividade ser validada como estágio curricular.

Interessados/as devem enviar e-mail com currículo resumido de até duas páginas (informar semestre letivo) e carta de motivação (até 300 palavras) até 13h do dia 21 de março de 2018 para hsalustiano@transparencia.org.br, com cópia para machado@usp.br. Candidaturas sem carta de motivação serão desconsideradas.

Os/as candidatos/as serão entrevistados na Transparência Brasil entre quinta e sexta-feira (22-23 de março). O resultado será divulgado na sexta-feira (23 de março). Nosso endereço é Rua Dr. Virgílio Carvalho Pinto, 445 – Sala 33 – São Paulo, SP – 05415-030.

Disponibilizada gratuitamente edição brasileira de quadrinhos de Nina Paley que satirizam propriedade intelectual

Além de artista talentosa, Nina Paley é voz ativa na luta por uma cultura livre. Através dos seus personagens Mimi e Eunice, ela faz um ácida e inteligente crítica à “pumpriedade intelectual” (em inglês, o título é “intelectual pooperty”). Nina Paley costuma permitir a livre circulação de suas obras na Internet. Como não podia deixar de ser, a edição portuguesa do livro está disponível online e gratuitamente pela Editora da Universidade Federal da Bahia.


Edição brasileira, publicada pela EdUFBA

O livro inclui uma breve entrevista com a artista. Ao ser perguntada por que artistas devem tornar livre seu trabalho, Nina responde que isso torna “mais fácil o seu compartilhamento” e que o apoio do público chegue diretamente ao artista. Para Nina, “ao remover as barreiras de copyright, o artista torna possível o recebimento – tanto diretamente quanto por meio de distribuidores – de dinheiro e de outros tipos de apoio, aumentando assim suas chances de sucesso.

Mimi e Eunice, em edição portuguesa. Autoria: Nina Paley.

 

Através dos quadrinhos, NIna dá suas impressões sobre a lei de copyright e inclusive demonstra seu desapontamento com as licenças Creative Commons.

O obra tem a tradução do jornalista e fotógrafo André Solnik, adaptação das imagens por Paula Vio, e conta com a introdução do professor Jorge Machado, do COLAB/USP. De acordo com a introdução, como a “propriedade intelectual” é monopólica, “na ausência de competição, seus detentores tendem a colocar os preços nas alturas. E isso ocorre no campo da cultura, nas patentes de medicamentos, obras científicas, tecnologias, etc.”. Assim, “ficam de fora todos aqueles que não podem pagar, tornando mais difícil o acesso à informação e ao conhecimento – especialmente àqueles que vivem em países subdesenvolvidos –, aumentando ainda mais o fosso global que divide ricos e pobres”.

Baixar “Mimi e Eunice em Pumpriedade Intelectual”

Pesquisadores do Colab publicam artigo onde avaliam o modelo de política públicas do Programa TransCidadania

O texto é um dos resultados da pesquisa de Bia Michele Miranda, orientanda do professor Jorge Machado. Publicado no livro “Mudanças Sociais e Participação Política – Estudos e Ações Interdisciplinares” (editora Annablume), o artigo avalia o programa como um modelo de intersetorialidade, com a participação da própria comunidade afetada pela política na sua construção.

 


Bia Michele Borges
Criado pela Prefeitura de São Paulo em 29 de janeiro de 2015 e administrado pela Coordenação de Políticas LGBT (CPLGBT) da Secretaria Municipal de Direitos Humanos e Cidadania, o TransCidadania funciona como um programa de reinserção social e promoção da cidadania para pessoas travestis e transexuais em situação de vulnerabilidade social.
transcidadania
No texto é descrita a implementação do programa e as inovações que ele traz. Os dados apresentados fazem parte de uma pesquisa qualitativa e exploratória mais ampla de dissertação mestrado, realizada entre março de 2015 e dezembro de 2016, na sede do programa TransCidadania, que inclui o acompanhamento de atividades realizadas pelo programa com os participantes, análise de documentos oficiais da prefeitura e do programa e entrevistas com gestores, equipe técnica e participantes do TransCidadania.
O artigo está disponível aqui.