sexta-feira, 31 de outubro de 2014

Representação cartográfica do processo eleitoral e democracia

Tem atraído minha atenção a quantidade de mapas elaborados na intenção de comunicar ao eleitor o resultado eleitoral e suas características regionais. No entanto, a valorização da cartografia sem a devida atenção aos métodos de representação, tem contribuído para uma compreensão equivocada da realidade, ao invés, de revelar a complexidade do processo eleitoral.

Representações que tratam apenas do candidato vencedor de cada território levam uma comunicação equivocada de homogeneidade. Como se em algum lugar todos os eleitores tivesse feito uma única escolha. Essa representação não contempla o resultado das urnas.

Representações binárias de fenômenos sociais tendem a alimentar interpretações binárias desses fenômenos.

Apresento abaixo um mapa que tem o objetivo de representar a porcentagem de cada candidato por estado. Entendo que esse mapa é necessário para que possamos compreender nossa própria diversidade de opiniões. É fundamental numa sociedade democrática o reconhecimento da opinião divergente. Aquele que não concorda comigo existe e é um sujeito tão qualificado a fazer escolhas como eu. Esse é o ponto de vista que pretendo defender.

Mesmo em estados com maior polarização como, por exemplo, em São Paulo, Estado onde o candidato do PSDB obteve um excelente desempenho, 35,7 % dos eleitores optaram pela candidatura governista. Na outra ponta, na Bahia onde Dilma obteve pouco mais de 70% dos votos, algo em torno de 30% dos eleitores optaram pela candidatura oposicionista. Os casos acima são extremos, na maioria dos estados encontrou-se um equilíbrio maior.

Levando em conta que a diferença entre os candidatos foi inferior a 2% como poderíamos desqualificar o divergente sem fomentar uma visão segregacionista na sociedade?



Métodos

Trabalhei com dados em porcentagem, como método de representação utilizei símbolos graduados, nesse método o técnico estabelece o tamanho máximo e mínimo para a forma que ira representar a quantificação do fenômeno. Os agrupamentos foram construídos de forma manual uma vez que os dados dos dois candidatos precisavam de uma divisão em agrupamentos semelhante e isto não foi possível por nenhum método automático.

Dessa forma o primeiro grupo de ambos foi do seu piso até 40%, o segundo de 40% a 50% e o terceiro até 65%. Esse foi o valor máximo que a candidatura de Aécio Neves obteve. Já Dilma Rousseff atingiu a casa dos 78%, assim para a referida candidata construí uma última classe de agrupamento. Dessa forma as frequências relativas ao candidato Aécio ficaram distribuídas em três grupos e as frequências da candidata Dilma em quatro, a última agrupando os valores que ficaram acima de 65%.

Na definição do tamanho mínimo da simbologia de cada um, busquei uma equivalência através da aplicação de uma regra de três, de forma que o valor inicial da candidatura oposicionista, em torno de 22% dos votos válidos, fosse proporcional ao tamanho do valor mínimo da candidatura da situação, pouco mais de 35% dos votos válidos. Para os valores máximos busquei o mesmo resultado procedendo da mesma maneira.

Ao utilizar uma cor neutra para a representação do território procurei comunicar uma visão na qual o Brasil continua e continuará pertencendo ao povo brasileiro, independente do resultado da eleição. O que se disputa em uma eleição é tão somente a gestão do governo federal, não está em disputa o Estado, quem dirá o território brasileiro.

Termino essa postagem pedindo mais rigor nas técnicas de representação, mais visão crítica na leitura das técnicas de representação. Mapas e gráficos são instrumentos de síntese por demais valiosos, devemos trabalhar por sua popularização, contudo não devemos nos omitir frente a eventuais deturpações.

sábado, 20 de setembro de 2014

Método do Quartil na Representação da Informação

Caros leitores, hoje falaremos sobre representação da informação. Suponhamos que nosso desafio seja representar a densidade populacional dos 5570 municípios brasileiros. Seria impossível uma interpretação correta da realidade através de uma de representação visual (intensidade de cores) se optássemos por representar cada valor único. Nesse contexto se faz necessário agrupar dados segundo padrões de semelhança. Para isso utilizamos um instrumental metodológico.

Na cartografia temática podemos construir representações quantitativa através de vários métodos: intervalos iguais, desvio padrão, quebras manuais, quebras naturais, quartile e outros. Esse post se dedica ao método dos quartile.

Definindo o Número de classes
Primeiramente se faz necessário definir o número de classes em que seus dados serão agrupados, é comum encontrar mapas que tenha de 4 a 8 classes. Entende-se que mapas com mais de 8 agrupamentos não facilitam o entendimento. Existe uma metodologia (STURGER) que equaciona essa questão nos seguintes termos: K= 1 + 3.33LogN
onde K= ao número de classes e N o número de valores não repetidos. 
Ainda que existe uma fórmula proposta para a definição do número de classes seu uso não é obrigatório, a experiência do analista muitas vezes permite a apresentação de soluções mais adequadas para a representação dos fenômenos.

Quartil
O método dos quartis consiste em agrupar os dados com quantidades iguais de registros. Construímos um exemplo para facilitar o entendimento. Observe o quadro abaixo:

O primeiro quartil representa os 25% das observações, de menor valor, entre o segundo e terceiro quartis temos os valores centrais situados os valores 9 e 34, a mediana se encontra em 16,5. O último quartil inicia-se do 37 e vai até 50. Com esse instrumental analisamos onde e quanto. Onde estão os valores mais próximos da mediana, os valores mais baixos, os mais altos.

Os quartis nos permitem ter conjuntos com uma distribuição de observações mais equilibrado além de poder identificar imediatamente qual a posição de cada observação em relação ao todo. Se o valor associado a uma observação é mais central ou se está nos extremos.

Abaixo uma figura de como o ArcGIS organiza os dados sobre essa perspectiva, nessa figura, extraída do help online, os dados foram divididos em 7 grupos, observe que ele altera a amplitude de alguns agrupamentos a fim de obter conjunto com quantidades de observações semelhantes.

A escolha do método adequado para agrupar seus dados é determinante para o sucesso da sua análise. Situações podem ser postas em evidencia ou ocultadas. Padrões podem evidenciar a necessidade de ações e apontar onde elas devem se concentrar. 


Do discurso para o mapa
Apresento dois exemplos extraídos do material didático do curso de análise espacial do Inpe. Dois métodos diferentes foram usados para agrupar o mesmo conjunto de dados, no caso a proporção de crianças de 0 a 5 anos residentes em domicílios em que o responsável ou cônjuge é analfabeto e saneamento é inadequado. O primeiro método agrupa os dados dividindo a amplitude pelo número de classes definidas em intervalos iguais.

fonte da figura: Material didático do Curso de Análise Espacial de Dados Geográficos do Inpe

As cores quentes representam as áreas de maior atenção. Agora a mesmo fenômeno representado pelo método do quartil, no caso divido em 10 partes, cada uma representando 10% dos dados.

Observe a alteração da quantidade áreas com cores quentes, isso porque o método está focada na distribuição dos dados, pelo tamanho dos agrupamentos não pela rigidez dos intervalos. Observe que a coluna quantidade apresenta valores semelhantes de geometrias associadas.

De forma geral não podemos dizer que o método dos intervalos iguais não seja válido, entendo que ele não é válido para representar esse fenômeno. Várias bibliografias apontam esse método como muito apropriado para fenômenos contínuos, como tipos de solos e distribuição de temperaturas. Mas podemos afirmar que o método do quartil nos permite observar os 10, 20, 30% mais críticos num primeiro olhar.

Serviços de análise de dados geográficos, com alto rigor técnico, podem ser contratados em: www.geoanalytics.com.br

quinta-feira, 29 de maio de 2014

Segundo ano da Lei de Acesso à Informação

No mês de maio completa dois anos da regulamentação da Lei de Acesso a Informação. Estando por tanto, ainda numa primeira fase da sua vigência. Nesse primeiro período marca-se também o choque entre uma lei aberta, voltada para a transparência e a cultura do “meu dado” no sentido negativo da expressão. Dados são insumos para a geração de informações relevantes que podem trazer benefícios a sociedade, salvo situações muito particulares devem ser abertos.
Nesse primeiro período é fundamental a apresentação de solicitações, de demandas da sociedade, para que essas barreiras sejam rompidas. Antes de fazer suas solicitações sugiro que leia a lei. Observe bem as delimitações, a lei é bastante generosa quanto aos formatos a serem solicitados e recorra se entender que o órgão fez uma negativa injustificada. A participação da sociedade é importante para garantir uma aplicação da lei favorável ao cidadão.
No portal de dados abertos, o leitor encontrará um conjunto considerável de dados geográficos a disposição. Alguns já catalogados pela INDE (http://dados.gov.br/tag/INDE), IBGE (http://dados.gov.br/tag/IBGE) e dados geográficos de vários Estados como por exemplo do Tocantins (http://dados.gov.br/tag/Tocantins).
A lei ganha importância na medida que se faça uso dela, a cartografia nacional produzida com recursos públicos também é de responsabilidade de órgãos a ela subordinada. A Cidade de São Paulo é um excelente exemplo de aplicação da lei por parte do poder público http://transparencia.prefeitura.sp.gov.br/acesso-a-informacao/Paginas/Dicas-para-fazer-o-pedido.aspx

Em tempo: Parabéns a todos os amigos geógrafos nesse 29 de maio.

domingo, 13 de abril de 2014

Gestão de dados e a construção de valor a partir de dados


É um consenso em construção a visão que os dados geográficos se tornaram uma commodity. Essa visão presente na fala de executivos de empresas como a Esri e outras grandes do setor. Expõem a perspectiva que na atualidade os dados podem ser produzidos em larga escala e em diferentes partes do mundo. A convergência com essa visão, leva-me a refletir sobre as particularidades, considerar as tendências e as contra tendências
Minha primeira ponderação. Embora possa ser constatada uma queda nos preços de diferentes bases de dados (matriz e vetor), elas continuam essenciais. Não há processo de tomada de decisão que possa prescindir de dados. Assim tem uma tendência ao equilíbrio de preços em um patamar que permita investimentos na atualização e manutenção das ofertas de dados.

A evolução da tecnologia tem permitido a geração de dados que capturam a dinâmica da realidade. O recebimento de milhões se não bilhões de logs resultantes de GPSs embarcados, põem a demanda da sua análise e interpretação na ordem do dia. Sua resultante é um dado rico sobre a vida nas cidades. Sim, o tráfego mostra muito mais do que o trânsito. Dados embarcados utilizados em processos produtivos também oferecem uma visão do desempenho de equipes, respondendo onde e quando os ápices de produtividade se encontram. Dados que reportam a dinâmica das ações e dos processos no território são de grande importância para modelos preditivos.
A grande oferta de dados e de insumos tem demandado uma crescente preocupação com os processos de qualidade. Se podemos restituir uma base em qualquer lugar do mundo, continuamos demandando de inteligência local, conhecedora das particularidades e dos processos e regras de negócio do cliente final.
A compreensão do ciclo de atualização do dado é central. Responder por quanto tempo esse dado é confiável para o processo de negócio do cliente é chave. Apontar a escala apropriada e sua extensão. Ofertar metadados completos e confiáveis. Assim as IDEs (Infraestrutura de Dados Espaciais) nunca foram tão necessárias. Na atualidade temos diferentes fontes provedoras e a necessidade de apontar qual a mais aderente aos processos de negócio é crítica.
Essa conjuntura de ampla oferta de dados, de redução de preços, escala temporal e métrica para aquisição mais flexíveis. Enfim, mais e mais dados, tem seu sucesso relacionado a gestão de dados. Cabe a uma boa gestão orientada aos objetivos da organização dar a consistência e assegurar a confiabilidade desses dados para que a tomada de decisão seja segura.

Por fim, passamos por mais um processo de mudanças e ao meu ver o grande desafio continua sendo compreender o tempo, suas mudanças e se posicionar de forma adequada

Nós da Datageotecnologias podemos apoiar sua organização nessa jornada, entre em contato e receba a visita de um consultor. 

sábado, 29 de março de 2014

Metodologia do Censo Demográfico 2010

No final de 2013 o IBGE divulgou a metodologia do Censo de 2010, a publicação reuni uma descrição de todas as etapas para a execução da maior pesquisa sobre as características da população brasileira realizada através da coleta em campo todo em território nacional. A publicação em suas mais de 700 páginas, fora anexos, apresenta um histórico dos censos demográficos no Brasil, a preparação da base territorial para as operações do censo 2010, planejamento do censo, coleta, apuração, crítica e divulgação dos resultados.
Na minha visão, fruto da minha prática profissional, (a ressalva é valida frente a riqueza dos dados coletados e organizados pelo IBGE) a informatização de todas as etapas do censo foi um dos grandes destaques dos procedimentos. O censo brasileiro foi o primeiro no mundo a ser totalmente informatizado. Visto pelo cidadão comum na ponta do iceberg figurado na utilização dos PDA (computadores de mão) onde foram inseridos os questionários básicos e da amostra, integradas as malhas digitais de setor urbano e rural e reunidos os dados da pré coleta. A informatização de todo o processo permitiu uma rápida e segura apuração dos dados.
Também merece menção os trabalhos de consolidação da base territorial que integrou as malhas urbana e rural. Validou mapas, ajustou todo tipo de deformação que quem é da área pode esperar encontrar.
Não podemos omitir os trabalhos de pré coleta censitária, processo de coleta em campo dos dados que compunham a base territorial. Nesse processo foram coletados também os dados do entorno, dados que não compunham o censo de 2000. Trazem as informações coletadas por observação na face de quadra de todos os setores urbanos visitados pelo supervisor responsável pela área. Nos dados do entorno haverá informações sobre iluminação pública, se a via é asfaltada, se a calçada tem meio fio, se a rua tem nome e outras informações.
A divulgação da metodologia fecha o ciclo de divulgações previstas para o Censo 2010. Em suas mais de 4.000 variáveis o Censo demográfico de 2010 é o retrato mais fiel e detalhado que temos da população brasileira, dados essenciais a todos os que desejam conhecer o Brasil.

sábado, 15 de março de 2014

Consumindo um serviço de mapas no desktop

No post anterior abordamos o visualizador de metadados da INDE, nesse ambiente era possível identificar que diversos dados também estavam disponíveis como WMS (world map servise) ou serviço de mapas. WMS é uma especificação para publicação de mapas adotada pelo Open Geoespatial Consortium (OGC). É possível adicionar esses mapas como serviço e consumir em desktop, como por exemplo no ArcGIS. Nesse link o leitor encontrará mais informações sobre como fazer a conexão com um serviço de mapas no ArcGIS: http://help.arcgis.com/en/arcgisdesktop/10.0/help/index.html#//006m00000062000000.htm
O Instituto Pereira Passos, possui uma detalhada base de informações geográficas sobre o município do Rio de Janeiro e disponibiliza seus dados também como WMS. O usuário poderá acessar os dados no link: http://portalgeo.rio.rj.gov.br/amdados800.asp?gtema=15 na opção para desenvolvedores.

Dados do IPP visualizados em Desktop

terça-feira, 4 de março de 2014

Metadados no visualizador de dados da INDE

Vamos falar um pouco do visualizador de dados da INDE (Infraestrutura Nacional de Dados Espaciais) não é um tema novo, mas o foco é sempre orientado pela prática profissional ou acadêmica de cada um. Como foco principal desse post abordamos a visualização dos metadados (dados sobre os dados). Acesse o site em: http://www.visualizador.inde.gov.br/

Na atualidade é crescente o volume de dados geográficos a disposição, a boa utilização de dados requer uma adequada interpretação de metadados que deve antes de tudo considerar as necessidades de cada utilização da informação. De uma forma geral parece-me apropriado considerar a área do mapeamento, escala, projeção e datum, data dos produtos fonte que geraram o dado, a data da extração dessas informações na sua fonte e se existe uma periodicidade na produção desse dado.

Ao clicar sobre as camadas disponível, escolhemos os trechos rodoviários da base cartográfica do IBGE, abrirá uma janela na qual o leitor poderá ter acesso ao metadados, obter o link em WMS para utilizar como serviço de mapas em uma outra aplicação ou mesmo utilizar em um GIS desktop. Também é possível obter o dado em formato KML, CSV ou SHP.

Aqui um print de uma parte do metadados, consideramos informar ao leitor a ISO (19115) que referencia o metadado. Nessa ISO também estão descritos os processos de qualidade e apontadas as normas de referência.

Agradeço a fidelidade dos leitores que mesmo em períodos de poucas postagem não deixam de acessar o blog. 
Web Analytics