domingo, 31 de janeiro de 2010

Quem com ferro fere

Fui testar as minhas idéias no BlackJack (21) e me lasquei.

São 6 baralhos ao invés de apenas 1.

Tenho de fazer mais contas

sábado, 30 de janeiro de 2010

Padrões nas cartas

Infelizmente, não tenho acesso a internet aqui. Então me perdoem por erros associados.

Fico sempre muito interessado na questão de probabilidades. A bem da verdade, isto tem muitas ramificações, mas vamos a alguns exemplos de interesse.

Vamos dizer que você tirou uma carta de um baralho. Qual é a probabilidade que a próxima carta seja maior que a sua?

De modo bem claro isto depende da carta que você tirou. No fundo isto É um problema de probabilidade condicional.

Mas vamos ao problema. Se esquecermos os naipes tempos 13 cartas

dois, três, quatro, cinco, seis, sete, oito, nove, valete, rainha, rei e ás.

E temos aí na ordem de importância: cada um tem a possibilidade de 1/13 de ser retirado (interessante o 1/13, pois se fosse o baralho inteiro a coisa muda um pouco de figura).

EnTão vamos ao caso:

cartas de mesmo naipe: temos de ver que cartas que ele tirou. Em todo caso, a base diminui do número de cartas tiradas.

Exemplo: ele tirou 2, 4, 5 - total: 11
Você tirou 1, 6, 7 - total: 14

Como fica a situação?

Bem da sua parte você tem de tirar uma carta menor ou igual a 7. Esta é apenas 3.

Do ponto de vista dele, ele tem que tirar uma carta menor ou igual a 10, o que dá 3, 8, 9 ou mesmo o 10. Ele não pode tirar o valete (11), rainha (12) ou o rei (13).

Então a chance dele tirar uma carta menor ou igual a 10 é 4 sobre 7. A chance dele tirar uma carta maior que 10 é 3/7.

E como isto influi na sua chance de ganhar? Ah, isto é interessante...

Para que você ganhe, você tem que tirar o 3 e ele tem que estourar. A primeira vista isto seria simplesmente a multiplicação das probabilidades (1/7 * 3/7). Mas o fato é que ao retirar a carta, há uma mudança no espaço de probabilidades. Vamos ver o que pode acontecer:

Caso 1: Ele tira 3 -> Você perde qualquer que seja a carta tirada
Caso 2: Ele tira 8 -> Você perde qualquer que seja a carta tirada
Caso 3: Ele tira 9 -> Você perde qualquer que seja a carta tirada
Caso 4: Ele tira 10 -> Você perde qualquer que seja a carta tirada
Caso geral: Ele tira 11 -> Você perde se sua carta não for 3
Subcaso 5: Você tira 3 -> você ganha
Subcaso 6: Você tira 8 -> você perde
Subcaso 7: Você tira 9 -> você perde
Subcaso 8: Você tira 10 -> você perde
Subcaso 9: Você tira 12 -> você perde
Subcaso 10: Você tira 13 -> você perde
Caso geral: Ele tira 12 -> Você perde se sua carta não for 3
Subcaso 11: Você tira 3 -> você ganha
Subcaso 12: Você tira 8 -> você perde
Subcaso 13: Você tira 9 -> você perde
Subcaso 14: Você tira 10 -> você perde
Subcaso 15: Você tira 11 -> você perde
Subcaso 16: Você tira 13 -> você perde
Caso Geral: Ele tira 13 -> Você perde se sua carta não for 3
Subcaso 17: Você tira 3 -> você ganha
Subcaso 18: Você tira 8 -> você perde
Subcaso 19: Você tira 9 -> você perde
Subcaso 20: Você tira 10 -> você perde
Subcaso 21: Você tira 12 -> você perde
Subcaso 22: Você tira 12 -> você perde

O número de casos é 22. Destes 22 casos, você ganha em 3 deles. Logo sua chance de ganhar e ele perder é de 3/22. A chance dele estourar é 3/7

Mas é claro que isto implica que todas as cartas tem de ser retiradas. Se não há obrigatoriedade de retirar as cartas a coisa muda de figura. Mas isto fica para outro post.

sexta-feira, 29 de janeiro de 2010

A questão da ditadura e da censura

Muito se fala sobre a censura na ditadura. Mas existe, como sempre, um viés na discussão.

E antes que coloquem os termos, eu digo: ditadura é ruim.

Mas o meu ponto é sobre a liberdade de expressão. Ao mesmo tempo que falam que a ditadura "calou as bocas" de muita gente, temos profusão de prova em contrário.

Sim: Chico Buarque, Milton Nascimento, Aldir Blanc, e mesmo uma pancada de gente que não falamos normalmente.

Então, como a ditadura calou as bocas? Resposta: não calou, mas forçou os interessados a utilizarem mais riqueza da língua portuguesa para passar sua mensagem.

Em outras palavras, metáforas e tudo mais.

Isto foi ruim? errr, sim. Mas menos ruim do que se tenta passar. É algo como uma forma mais refinada de transmitir conhecimento do que outra coisa.

E naturalmente, isto é um resultado da censura existente na ditadura. Mas ao mesmo tempo tornou a mensagem mais belamente colocada - imortal digamos.

E aí, qual o resumo da ópera?

Essencialmente que houve cerceamento de liberdade, mas isto não se traduziu em cerceamento da circulação de idéias.

Em outras palavras: as bocas não foram caladas. A despeito do que se fala.

Barão de Mauá

De novo volto ao livro "Mauá, o Empresário do Império".

Agora vou a alguns pontos que o livro levantou, mas nem sempre desenvolveu.

E o primeiro ponto eu já até havia mencionado anteriormente: ter escravos era algo muito caro. Não eram todas as pessoas que podiam ter escravos. Em termos econômicos comparativos, escravos equivaleriam ao que conhecemos hoje como carros de luxo (e bastante luxo - não as coisas que parecem mas não são).

Pode parecer pouco importante. Mas não é.

A maior questão é que algo tão caro assim não é comumente tratado de modo descuidado. Mais ainda, o fato de se usar escravos para trabalhos manuais cria a quase inevitável associação que trabalho manual é coisa para escravos e não para homens livres. Claro que isto só tem base na realidade para pessoas de capital suficiente para ter escravos. Mas a percepção pode permear todos os extratos sociais...

E daí para noção que homens livres devem se entreter com coisas mais elevadas (como planejamento, direção e coordenação) e não devem descer ao nível de trabalhos manuais é apenas um pequeno passo.

Está começando a soar familiar? Pois é esta a intenção mesmo...

Acredito que parte da herança de uma sociedade escravagista é exatamente o desprezo pelo trabalho manual. Mas como provar isto?

Bem, a melhor forma que vejo é tentar traçar algum gráfico relacionando países com e sem escravidão com o desprezo pela atividade manual. Mas como medir o desprezo pela atividade manual? Ah, isto é outro problema. Talvez por um índice, talvez pelo percentual de mão de obra empragada, talvez pelo percentual do salário médio empregado.

De qualquer modo, talvez uma forma seria traçar uma curva do tipo distribuição de probabilidade para renda. Só que ao invés da renda, seria o caso de traçar atividade empregatícia versus percentual de renda.

Uma outra consequência deste tipo de sociedade é um certo desprezo por dinheiro. Afinal, a medida do sucesso passa a ser não o dinheiro em si, mas o grau de liberdade que se tem para fazer o que bem entender.

Voltando a questão. Se conseguirmos relacionar o escravagismo com o desprezo as profissões com trabalho manual, isto explica parte da nossa herança que vemos hoje.

Nós somos um país de caciques, com poucos índios.

Mas não é só isto.

Existe outra diferença fundamental nesta história. Quando eu ouço a respeito dos sonhos de alguns empreendedores eu vejo algumas diferenças nos fins.

De um lado eu vejo os que estão interessados em deixar sua marca e para isto se dispõem a transformar seus sonhos em impérios.

De outro eu vejo gente com o propósito de ganhar o suficiente para nunca mais trabalhar na vida.

Não estou fazendo julgamento moral em nenhuma das posições, até porque pessoalmente eu tenho grande simpatia pela segunda.

Mas neste contexto, qual dos dois tem mais chances de criar impérios?

Irineu Evangelista

Estou lendo "Mauá, o Empresário do Império".

Esta leitura esta sendo muito interessante em vários aspectos. Primeiro, devo dizer que um escritor interessado em contar uma história tende a relegar as incertezas e mesmo criar laços aonde dificilmente pode-se provar sua existência.

Isto não é errado. Para quem quer contar uma história, um dos objetivos mais importantes é entreter. Claro que se deseja uma história de não ficção, como no caso de Mauá, então é necessário pelo menos um cuidado histórico com a história - em outras palavras não distorcer ou criar fatos inexistentes.

Isto creio que devo deixar bem claro: o importante é contar a história conhecida de modo mais interessante possível.

Já o historiador tem como objetivo contar a história como ela aconteceu, mas sem se preocupar com os aspectos narrativos da mesma. Em outras palavras, as inconsistências, as incertezas também devem fazer parte do que se relata pois são a partir delas que nascem as verdadeiras conexões.

Desgraçadamente, não temos este caveat explicado logo a princípio. Fica então o autor com aparência de ente super-poderoso que traversa a história explicando acontecimentos em que nenhum mortal exceto os poucos participantes estava presente. Ou seja, cria-se fatos para embelezar e melhorar a narrativa - de acordo com os interesses do autor.

Nada de errado, exceto que as pessoas costumam esquecer isto. E aí confundem o que está escrito no livro com a história real e verdadeira.

Costumo chamar isto de efeito Operação Cavalo de Tróia devido a este recurso que foi me apresentado pela primeira vez no livro de J.J. Benitez.

Bem, mas e o livro?

Ah, o livro é uma jóia muito bela e bem lapidada. Vale a pena ler.

E digo isto não só pela competência do autor na escrita, junção da narrativa e forma de apresentação. Digo isto porque a despeito dos problemas que narrei anteriormente, o livro funciona quase como uma bola de cristal as avessas - ao invés de nos mostrar o futuro, nos mostra o passado.

Mais do que o simples passado, o livro desfia parte do brocado que é a tapeçaria do nosso país. Só isto já vale a leitura do livro.

É verdade que por vezes o livro atribui poderes quase super humanos aos protagonistas. Mas isto é menos uma falha do autor do que da tendência geral que todos temos de tentar ver padrões. E claro, o passado é o mais tentador destes meios. Afinal, fica fácil esquecer que os participantes não tinham todas informações, e pior sequer tinham as informações corretas.

Mas em uma sequência aleatória de decisões são as decisões bem sucedidas que ficam registradas. E não o contrário.

Mesmo assim, devo confessar que esta noção de onisciência me irrita um pouco. Acredito que isto acontece em razão de ter descoberto a duras penas que não é assim que funciona o mundo, que nem todas as possíveis ramificações podem ser preditas e menos ainda a probabilidade das mesmas.

Assim os cálculos de Mauá continham enorme incerteza, ele não era um santo na terra,  os traficantes não tinham necessariamente um planejamento de longo prazo, nem eram todos necessariamente monstruosos, mas apenas reagiam de modo mais ou menos previsível a determinados estímulos, a vaidade, o orgulho, a cobiça, a luxúria e todos os demais pecados capitais eram forças básicas embutidas em algumas decisões e assim vai...

Eu tenho me forçado a pensar em termos de probabilidades. Mas mesmo conhecendo o que aconteceu no passado, parece difícil estabelecer relações numéricas que possam clarificar o que era ou não mais provável de acontecer.

Mas isto fica para um post futuro

sexta-feira, 22 de janeiro de 2010

Marques de Pombal e a incerteza

Lendo a respeito da história do Brasil, veio a baila o nome do Marques de Pombal.

A influência deste ministro não pode ser minimizada. Mas mais interessante do que isto é a quantidade de eventos aparentemente aleatórios que trouxe a ribalta o referido estadista.

Sua subida deu-se em boa parte no seu desempenho quando ocorreu o terremoto de Lisboa em 1755.

Em muitos aspectos suas decisões pavimentaram o caminho para a mudança de status do Brasil de colônia para país de verdade.

Sem ele não teríamos:

- A companhia do Pará
- A companhia de Pernambuco
- A Derrama que invariavelmente levou a Inconfidência Mineira (já depois da morte do Marques)
-  Fim das Capitanias Hereditárias
- Mudança da capital de Salvador para o Rio de Janeiro
- As razões para o Brasil não ser um país bilíngue
- A expulsão dos jesuítas do Brasil

E isto foi obra de um homem que tentou mesclar o absolutismo com as idéias do Iluminismo

Impressionante

terça-feira, 19 de janeiro de 2010

Série de Taylor

A série de Taylor é uma das ferramentas mais interessante que já encontrei nos meus estudos.

Na sua forma mais completa, ela pode explicar muitos fenômenos e mesmo ajudar a modelar os mesmos.

Para utiliza-la é necessário cálculo (essencialmente a derivação).

Mas existem algumas operações que pode ser feitas com simplificidade.

Divisão:

1/(1+x) = 1-x+x^2-x^3+x^4-x^5+...

1/(1-x) = 1+x+x^2+x^3+x^4+x^5+...

Radiciação:

sqrt(1+x) = 1+1/2*x-1/8*x^2+1/16*x^3-5/128*x^4+7/256*x^5+...

sqrt(1-x) = 1-1/2*x-1/8*x^2-1/16*x^3-5/128*x^4-7/256*x^5+...

E mesmo o quadrado e cubo:

(1+x)^2= 1+2*x+x^2

(1-x)^2= 1-2*x+x^2

(1+x)^3= 1+3*x+3*x^2+x^3

(1-x)^3= 1-3*x+3*x^2-x^3

Para nós vale a pena utilizar apenas a primeira ordem, ou seja até o expoente 1. Assim por exemplo, a divisão se torna:

1/(1+x) = 1-x

Bem, e de que isso vale?  A questão é que isto simplifica o cálculo. Vamos supor que queremos dividir 234 por 153 por exemplo.

Podemos escrever isto como:

234/153 = 234/(234-81)

Isto pode ser simplificado colocando em evidência:

1/(1-81/234)

que por Taylor se torna

1+81/234 =1.35

Sendo que a divisão correta é 1.53 (aproximadamente). O resultado ainda é distinto, mas pode ser melhorado por outra série:

234/153=153/153+81/153 = 1.53

Mas as coisas interessantes acontecem na radiciação, Vamos procurar a raiz de 431:

sqrt(431)= sqrt(400*(1+31/400)) = 20.76053950

20*(1+1/2*31/400) = 20.77500000

Um erro bem pequeno. O ideal é saber os quadrados principais e aplicar este conceito. Quanto mais próximo o quadrado principal estiver do número original, melhor.

A mesma conta poderia ser feita com 21. 21 ao quadrado é 441 (note que usando Taylor teríamos (20+1)^2 = 400*(1+1/20)^2  aproximado por 400*(1+2/20) = 440)

Então a conta ficaria:

sqrt(431) = sqrt(441-10) = 20.76053950

21*(1-1/2*10/441) = 20.76190476

O conceito de série de Taylor é muito poderoso.

Alas, the prediction went wrong

Bem, não posso dizer que não era esperado, mas a minha predição de número máximo de celulares em 2009 foi errada.

Originalmente eu tinha predito que o número estaria:

Mínimo: 162.2 milhões
Esperado: 166.5 milhões
Máximo: 170.2 milhões

O resultado de 2009 saiu hoje e foi de 174 milhões de celulares. Textualmente:


O Brasil terminou o ano de 2009 com 174,0 milhões de celulares e uma densidade de 90,6 cel/100 hab.

As adições líquidas foram de 4,2 milhões de celulares em dezembro, superiores aos 3,6 milhões de Dez/08. As adições líquidas no ano foram de 23,3 milhões de celulares.

Este crescimento está sendo puxado pelo pré-pago que superou os 82,6% em Dez/09.

No mês de dezembro, o Rio Grande do Sul tornou-se o quinto estado a ultrapassar 100 cel/100 hab. Chegando a 100,5 acessos por 100 habitantes. Em julho de 2009, São Paulo, Rio de Janeiro e Mato Grosso do Sul superaram a marca, e o Distrito Federal em maio de 2005

Isto naturalmente complica minha previsão de 2010 do resultado estar entre 180 e 187 milhões. Se tivermos uma adição de 20 milhões de celulares este número chegaria a 193 milhões.

Uma característica comum

Existe um termo muito interessante em psicologia chamado projeção.

A página do wikipedia diz textualmente:

Em psicologia, projeção é um mecanismo de defesa no qual os atributos pessoais de determinado indivíduo, sejam pensamentos inaceitáveis ou indesejados, sejam emoções de qualquer espécie, são atribuídos a outra(s) pessoa(s). De acordo com Tavris Wade, a projeção psicológica ocorre quando os sentimentos ameaçados ou inaceitáveis de determinada pessoa são reprimidos e, então, projetados em alguém.[1]
A projeção psicológica reduz a ansiedade por permitir a expressão de impulsos inconscientes, indesejados ou não, fazendo com que a mente consciente não os reconheça. Um exemplo de tal comportamento pode ser o de culpar determinado indivíduo por um fracasso próprio.[1] Em tal caso, a mente evita o desconforto da admissão consciente da falta cometida, mantém os sentimentos no inconsciente e projeta, assim, as falhas em outra(s) pessoa(s).

Isto é interessante pois se aplica a muitas discussões online e offline. Essencialmente: os argumentos utilizados, bem como quaisquer formas de ataque diz mais sobre o atacante do que sobre o atacado.

A razão é que, com raras exceções, o atacante não sabe muito sobre o atacado. Então os insultos e argumentos são criados a base da maior tentativa de efeito - ou seja, se trabalha com o que se conhece.

Então ao ser insultado, o atacado já sabe que aquele insulto em particular foi escolhido com base em ter o maior efeito possível, na opinião do atacante.

O que mais ou menos diz, apesar de não ser sempre o caso, que aquele insulto é o que terá maior efeito utilizado no atacante. Então um texto insultoso é compilado para tal, e se o atacado sentir o insulto então o mesmo corresponderá a uma percepção correta da parte do atacante.

Mas...

Como dito antes, isto diz muito a respeito do atacante. Um argumento "cozido as pressas" indica um interesse em rebater - ou seja uma certa impaciência. Um ataque do tipo gramatical indica que o atacante está buscando desesperadamente formas de desviar o ataque atual.

E isto me traz ao meu assunto: um blog chamado "The Classe Média Way of Life". O objetivo é francamente insultoso. Mas porque isto: porque o autor se enquadra no arquétipo do texto.

Ele fala mal daquilo que ele conhece bem e não gosta.

Infelizmente, o que ele vê é literalmente nenhum palmo a frente do nariz. O conceito de classe média sempre foi uma dor de cabeça para o modelo de classes de Marx. Infelizmente para os críticos, a classe média não é a burguesia.  Dizem que seria uma pequena-burguesia, mas mesmo este modelo não se enquadra direito.

O problema é que ninguém quer ficar pobre - todos querem ter do bom e do melhor. Isto funciona do mais pobre ao mais rico. Infelizmente, trata-se de uma classificação falsa (talvez apenas wishful thinking).

Então, a classe média não é exatamente proletariado e nem burguesia. O que é então?

Na obra de Marx, que parece que não leram, há uma pequena discussão sobre isto que de um modo bem simples considera que existe uma zona cinza bem grande entre os dois termos (está em "O Capital" volume 3).

Nesta zona cinza é que mora (ou moraria) a classe média.

Então porque o ódio?

Aí vem a parte realmente engraçada: eles não querem estar nesta zona cinza.

Não querem ser proletariados, entendam. Mas não querem ser exatamente burgueses.

O que os coloca exatamente aonde não querem.

Seria cômico, se não tivesse trazido tanta confusão e dor ao mundo.

segunda-feira, 18 de janeiro de 2010

O que uma análise errada pode fazer

Recebi via orkut o comunicado do PSTU tratando do terremoto no Haiti.

O que está escrito poderia ser criticado de diversas maneiras - e a maioria seria no mínimo desrespeitosa.

Mas o ponto deste texto não será este.

O ponto é que o PSTU falhou de modo absolutamente impressionante na análise do cataclisma que abateu-se sobre o Haiti.

Falhou em três aspectos principais:

1) Não existiram zonas de segurança para o pessoal do Minustah. Então eles mesmos foram vítimas do terrível terremoto, tendo vários perecido nesta catástrofe. Portanto, fica muito ruim criticar o pessoal que está lá acompanhando e sofrendo com a tragédia do conforto de um escritório ou quarto no Brasil.

2) Na hora crítica, o que importa é ajuda. Não importa se ajuda não é do tamanho que desejamos, mas que ela venha. E neste caso, a ajuda está vindo mesmo daqueles que são chamados de hipócritas. É de extremo mau gosto com as vítimas xingar ou vilipendiar quem tenta ajudar;

3) Uma situação de catastrófe demanda um controle hierárquico baseado nos moldes militares. A saída de soldados especializados no controle de população em um momento crítico como este tende a PIORAR a situação e aumentar a contagem de vítimas. Portanto, demandar a saida de pessoal que irá ajudar a organizar a situação e possivelmente salvar vidas soa além de ignorante, devo dizer que algo bastante cruel.

Então temos de modo claro e inequívoco, o dano que uma avaliação errada pode fazer: destruir a credibilidade de pessoas - a imagem que fica é que ao invés de ajudarem o país, as sugestões do PSTU parecem querer aumentar a contagem das vítimas.

Fica ruim na fita

sexta-feira, 15 de janeiro de 2010

Um texto interessante sobe a bolha imobiliária em Brasília

Recebi via e-mail um texto interessante que fala sobre a possível bolha imobiliária em Brasília.

O mesmo tem um certo ranço ideológico, mas mostra um mecanismo de bolha clássico que, se confirmado, irá certamente levar ao eventual colapso da mesma. Em termos simples:

Outro exemplo bastante comum, é  o do cidadão que compra o imóvel para especular. Tudo funciona assim: o investidor paga R$ 50.000,00 de  entrada no imóvel, que custa R$ 400.000,00, e paga prestações mensais de R$ 1.000,00. Mas a intenção dele não é comprar o imóvel, mas apenas especular com os preços. Dois anos depois, aquele imóvel está valendo R$ 600.000,00. Ele, então, vende o ágio por R$ 274.000,00 - os R$ 50.000,00 de entrada, mais R$ 24.000,00 que foram pagos de prestações mensais, mais os R$ 200.000,00 de valorização do imóvel. Ou seja, um lucro bruto de 270% em dois anos - lucro de R$ 200.000,00, tendo investido R$ 74.000.

Isto é o que potencialmente pode se tratar de uma operação a descoberto. Desde que se tenha fundos para cumprir as obrigações caso o preço caia então não há problemas. De modo similar, caso o preço do ativo continue subindo também não há problemas (existem alguns dependendo da taxa de subida - mas não são tão sérios assim).

O problema é que subida sem limites não existe. Em algum momento o preço irá ou mudar sua taxa de subida ou cair.

E aí o problema começa. Se o indivíduo compra 1 imóvel a descoberto, o problema é X - no exemplo anterior o débito passa a ser R$ 400 k - R$ 74 k = R$ 326 k

Mas se o indivíduo compra 10 imóveis, então o problema passa a ser de mais de 3 milhões. Multiplique isto por um número razóavel de indivíduos e aí você vê o tamanho do pepino.

E também isto implica que o sistema tem de ter uma valorização constante.

Se desvalorizar então o sistema entra em pane.

E temos aí o primeiro mecanismo real de bolha.

quinta-feira, 14 de janeiro de 2010

Um olhar no passado

Vendo o youtube encontrei alguns vídeos interessantes sobre o período Collor.

Muitos não se lembram, mas tivemos naquela época o confisco de tudo que fosse acima de Cr$ 50.000,00 (cinquenta mil cruzeiros).

Quanto é isto? Bem em março de 1990, o dólar estava a Cr$ 38,40. E o dólar de 1990 corresponde a US$ 1,67 hoje.

Portanto os cinquenta mil cruzeiros correspondem a R$ 3.870,57

Incrível não?

Nova Pesquisa para Governador

Nas pesquisas anteriores, tivemos os seguintes resultados:

Joaquim Roriz (PSC) - [42-50]%
Agnelo Queiroz (PT) - [7-15]%
José Antôno Reguffe (PDT) - [2-10]%
Paulo Octávio (DEM) - [3-11]%
Gim Argello (PTB) - [1-9]%
Nenhum desses - [12-20]%
Não soube/Não respondeu - [6-14]%

E na pesquisa do PT temos:

Joaquim Roriz (PSC) - [31.8-36.8]%
Agnelo Queiroz (PT) - [13.5-18.5]%
José Antôno Reguffe (PDT) - [6.3-11.3]%
Paulo Octávio (DEM) - [4.7-9.9]%
Gim Argello (PTB) - [0.2-5.2]%
Toninho (PSOL) - [0-4.6]%
Nenhum desses - [19.1-24.1]%
Não soube/Não respondeu - [4.8-9.8]%



A pesquisa mais recente traz os seguintes resultados (com margem de 2.3%):


Joaquim Roriz (PSC) - 45,1%
Agnelo Queiroz (PT) - 13,17%
Cristovam Buarque (PDT) - 9,81%
Gim Argello (PTB) - 7,31%
Paulo Octávio (DEM) - 3,37%

Não soube ou Não Respondeu - 9,04%
Outro candidato - 12,21%


Alternativamente podemos ter:


Joaquim Roriz (PSC) - 44,62%
Agnelo Queiroz (PT) - 12,02%
José Antônio Reguffe (PDT) - 7,02%
Gim Argello (PTB) - 6,63%
Eliana Pedrosa (DEM) - 5,38%
Não Soube ou Não Respondeu - 13,37%
Outro candidato - 10,96%


Isto  indica que Roriz tem algo mesmo em torno de 45% , Agnelo tem algo em torno de 15% e Reguffe tem algo em torno de 10%.

Os números estão consistentes com minhas estimativas

terça-feira, 12 de janeiro de 2010

Mais dados sobre o Brasil Colônia

Em uma das referências encontrei o preço de um escravo em 180 mil réis. Isto está condizente com o dado anterior do custo do escravo que obtive na comparação com o custo da arroba de açucar.

No entanto, os valores obtidos do pagamento anual dos trabalhadores livres e o preço da arroba de açucar não condizem com os dados que tive anteriormente

Então procurando melhor encontrei na mesma referência anterior que o empregado mais bem pago recebia o equivalente a 120 mil réis por ano.

Ou seja para comprar um escravo ele precisaria trabalhar 1 ano e meio.

Um feitor do campo recebia o equivalente a 50 mil réis por ano. Portanto iria gastar 3.6 anos de salário para comprar um escravo.

Um trabalhador livre recebia 100 réis por dia para trabalhar no campo. Um construtor de embarcações recebia 640 réis por dia.

Estão vendo um padrão?

Tomando 100 réis como o salário mínimo e 260 dias como padrão, temos 26 mil réis por ano. Um escravo custa 7 vezes este valor.

Se fizermos uma aproximação dos dias de hoje os 100 réis por dia valem 2 mil réis por mês. Se isto é o salário mínimo, comparando com o atual R$ 510,00 (vamos aproximar para R$ 500,00) então o custo do escravo será 7*12*500 ou R$ 42.000,00 - o custo aproximado de um carro de médio porte.

Dá para ver que definitivamente a compra de escravos não era para todo mundo.

E isto meio que atrapalha novamente a questão da mão de obra escrava sendo utilizada de modo indiscriminado na colônia.

Um olhar sobre o Brasil Colônia

No momento estou lendo História Econômica do Brasil de Caio Prado Júnior.

Devo admitir que nunca tinha olhado o nosso passado com tanto afinco. E desconfio que, como sempre, história está mal contada.

Porque? Bem, algumas perguntas passaram a surgir em minha mente e devo dizer que o livro não as responde muito bem. Aliás, não é problema exclusivo do livro.

Vou exemplificar: pelo que pude entender do livro a exploração do pau-brasil se manteve-se na costa. A razão é bem simples: indústrias madeireiras dependem de um bom fluxo de transporte para funcionarem bem. Quanto mais difícil é mover a madeira, menos econômico se torna faze-lo.

Bem, então como foi que o ciclo do pau-brasil acabou com o mesmo no Brasil? Bem, ele não acabou. Isto o ciclo continuou ocorrendo por um bom tempo, apenas se tornou economicamente pouco relevante diante das outras formas de se ganhar dinheiro por aqui.

E isto não é tudo. Temos o ciclo açucareiro. Este é realmente interessante. Vamos dar uma olhada na evolução dos engenhos no Brasil:
  • 1570 - 60 engenhos
  • 1583 - 115 engenhos
  • 1614 - 192 engenhos
  • 1624 - 300 engenhos
  • 1637 - 350 engenhos
  • 1710 - 528 engenhos
Em média, cada engenho produzia algo em torno de 36 toneladas de açucar anualmente. Mas isto variava bastante de acordo com o engenho. Em 1710, tivemos como resultado cerca de 19 mil toneladas de açucar desta atividade econômica (compare isto com os dados de hoje que temos 31 milhões de toneladas de açucar).

Então vemos que o número de engenhos cresceu com o passar do tempo, apesar de algumas diminuições ocasionais devido a problemas mais práticos (invasões holandesas entre elas).

Mas o interessante é comparar o custo de um escravo com o passar do tempo.
  • 1608 - 0.4 toneladas de açucar = 1 escravo
  • 1622 - 0.7 toneladas de açucar = 1 escravo
  • 1635 - 0.7 toneladas de açucar = 1 escravo
  • 1650 - 0.6 toneladas de açucar = 1 escravo
  • 1670 - 0.6 toneladas de açucar = 1 escravo
  • 1680 - 0.6 toneladas de açucar = 1 escravo
  • 1700 - 0.7 toneladas de açucar = 1 escravo
  • 1710 - 1.5 toneladas de açucar = 1 escravo
  • 1751 - 1.4 toneladas de açucar = 1 escravo
Então perceba que o preço do escravo foi aumentando com o passar do tempo. E isto não foi por uma depreciação no preço do açucar, mas foi pelo aumento no custo dos escravos mesmo. E o efeito?

Bem, em termos do valor do engenho temos que:
  • 36% escravos
  • 23% máquinas
  • 19% terra
  • 18% construções
  • 4% gado
E os custos operacionais não eram muito diferentes:
  • 23% pagamento de mão de obra livre
  • 16% manutenção dos escravos
  • 19% reposição dos escravos (10% de perdas anuais)
  • 12-21% insumos (lenha)
O que isto significa? Que a indústria açucareira era absolutamente dependente dos escravos e estes ERAM o maior componente nos custos. De 1700 para 1751, o custo do escravo dobrou, e isto com certeza tornou o sistema com uma margem muito pequena.

Mas porque os preços dos escravos aumentarão? Bem aí está outro problema, alguns autores falam sobre o novo ciclo: o do ouro. Mas o fato é que o custo dos escravos é razoavelmente alto (ao contrário do que se fala).
  • Um capelão tem um salário de 40 a 50 mil réis
  • Um feitor-mor tem um salário de 60 mil réis
  • Um mestre de açucar tem um salário de 130 mil réis
  • Um caixeiro do engenho tem um salário de 40 mil réis
  • Uma arroba de açucar custa cerca de 230 mil réis.
O preço de um escravo é próximo a 100 arrobas de açucar (em 1751). Ou seja um escravo custa o equivalente a:
  • 460 anos de um salário de capelão
  • 383 anos de um salário de um feitor-mor
  • 176 anos de um salário de um mestre de açucar
  • 575 anos de um salário de caixeiro de engenho
E isto não se contando os custos fixos que ficam por volta de 24 mil réis por ano.

Então o comércio de escravos só existia para gente MUITO bem abonada.

E isto meio que atrapalha o conceito que foi o ciclo do ouro que causou o aumento no valor dos escravos.

Aliás, isto complica bastante a noção de que todos tinham escravos no Brasil. Um escravo custava o equivalente a um moderno carro de alto-luxo.

segunda-feira, 11 de janeiro de 2010

Voltando a questão da energia


Além da energia contida em cada quilograma e de quão rápido temos acesso a esta energia (potência por quilograma), temos ainda questão do volume.

Este normalmente é medido em metros cúbicos, mas adicionalmente pode ser representado em litros (1 metro cúbico correspondem a mil litros).

Então o hidrogênio comprimido tem 5.6 MJ/l  o gasoso 0.01 MJ/l. Isto quer dizer que um tanque de 1 metro cúbico tem:

5.6 GJ (hidrogênio comprimido)
10.8 MJ (hidrogênio gasoso)

Comparativamente o mesmo volume tem

34.2 GJ (gasolina)
37.3 GJ (Diesel)
33 GJ (biodiesel)
75.1 GJ (siício)
24 GJ (etanol)

Então é bem visível que o hidrogênio, mesmo que estivesse funcionando com fonte de energia iria necessitar de reservatórios bem grandes.

Idealmente, o silício seria uma escolha interessante. A transformação de silício em energia poderia levar a uma boa relação entre armazenamento e capacidade. Mas idealmente o interessante é o dióxido de silício - este sim com bastante abundância mundo afora.

O problema ainda é a reação exotérmica que será usada para obter o trabalho mecânico de interesse. Claro que podemos utilizar não uma reação exotérmica, mas uma que gere eletrons (como a da bateria de carro). Ou seja uma reação redox (redução e oxidação)

Redução (catódo)
Algo 1 + Algo 2 <-> Algo 3 + Algo 4 + Algo 5 + n e (n eletrons)

Oxidação (anôdo)
Algo 1 + Algo 4 + n e <-> Algo 6 + Algo 5 +Algo 7

Mas isto fica para outro post

domingo, 10 de janeiro de 2010

De novo o problema da contagem

Este domingo os manifestantes estão em frente a casa do Leonardo "dinheiro na meia" Prudente. Até aí tudo Ok. O problema como sempre é a confusão que se faz a respeito da contagem dos manifestantes.

No clicabrasília:

Hoje, aproximadamente 30 participantes levaram faixas, ovos podres, meias e um caixão para frente da residência do distrital. Lá, fizeram a “oração da propina” e seguiram rumo a Câmara, onde ficarão acampados até amanhã para acompanhar o retorno do trabalho dos parlamentares.

No congresso em foco:

Cerca de 50 manifestantes do movimento Fora Arruda e Toda a Máfia protestaram na tarde deste domingo (10) em frente à casa do deputado distrital Leonardo Prudente (sem partido). Ele que foi flagrado em vídeo colocando dinheiro de propina nas meias, voltou ao comando da Câmara Legislativa em 30 de dezembro, apesar da pressão de partidos da oposição e da sociedade civil.

No globo:

Integrantes do movimento "Fora Arruda" estão em frente à casa do deputado distrital Leonardo Prudente (sem partido), acusado de envolvimento no escândalo político conhecido como mensalão do Democratas. Cerca de 150 pessoas estão na QI 3 do Lago Norte, onde mora o parlamentar.

No Correio:

Os cerca de 50 manifestantes que protestavam esta tarde em frente à casa do presidente da Câmara Legislativa, Leonardo Prudente (sem partido), decidiram voltar para a sede do Legislativo local, onde devem apenas se reunir.


Então quantos são? 30, 50 ou 150?

Muito provavelmente nenhum destes números. Mas como descobrir? Ah! Temos o vídeo



E pelo vídeo, a multidão deveria estar entre 10 e 50 pessoas.

quarta-feira, 6 de janeiro de 2010

De volta a questão da energia

Se formos olhar do ponto de vista de máquinas térmicas ficamos com a seguinte escala de aquecimento:

Hidrogênio: 121 MJ/kg
Metano: 50 MJ/kg
Propano: 50 MJ/kg
Gasolina (Dielsel, Parafina e querosene): 45 MJ/kg
Metabolismo da Gordura: 35 MJ/kg
silício (e alumínio): 30 MJ/kg
Benzeno: 30 MJ/kg
Etanol: 30 MJ/kg
Carvão: 30 MJ/kg
Amônia: 22 MJ/kg
Madeira: 15 MJ/kg
Metabolismo do Açucar: 15 MJ/kg

Mas além disto há outras questões, por exemplo: o lançamento de carbono como resíduo do processo. Por exemplo, para cada 1 kg de material teremos X kg de carvão lançados no ar.

1 kg de Carvão resulta 3.6 kg de carbono,
1 kg de Etanol resulta 1.9 kg de carbono,
1 kg de Gasolina resulta 3.3 kg de carbono,
1 kg de hidrogênio resulta 0.0 kg de carbono,
1 kg de Diesel resulta 3.4 kg de carbono.

Fica claro que o hidrogênio é o combustível de escolha quando a questão é o lançamento de resíduos.

Mas não é o único:

Uma bateria de automóvel tem 0.11 MJ/kg e lança 0.0 kg de carbono.

Já uma de ion-lítion chega até 0.7 MJ/kg.

Mas também este não é o único problema. Além da questão da densidade de energia existe também o problema da densidade de potência. A ligação entre as duas grandezas mostra efetivamente quanto tempo demora-se para depletar a energia - ou quão rápido pode acessá-la.

No caso uma bateria de automóvel tem uma densidade de potência de 110 W/kg

e uma de ion-lítion tem cerca de 250 W/kg

Já uma painel solar tem cerca de 170 W/kg

Então do que precisamos?

A solução com melhor performance parece ser o hidrogênio. Ele tem muita energia por quilograma e não lança dejetos no ar. Meu dinheiro estaria em uma forma de realizar um processo orgânico de conversão do hidrogênio em eletricidade.

No entanto temos de ver qual a densidade de potência e a sua abundância ainda. Temos ainda o problema que o hidrogênio tem uma densidade de 0.083 kg/l (líquido), 0.046 kg/l (comprimido) e 0.0001 kg/l (gasoso). Em comparação, o etanol tem 0.8 kg/l

Um problema digno de um Nobel

Sabemos que o mundo vive (como sempre viveu) uma série de crises.

No espírito do Norman Bourlag quero introduzir aqui uma questão que está ligada a maioria das crises de hoje em dia.

A questão é a energia.

O que acontece é que a disponibilidade de energia barata pode resolver uma série de problemas a que vários outros estão ligados.

Pode resolver o problema da água, permitindo dessanilização barata.

Pode resolver o problema do transporte, caso se consiga energia com densidade razoável para transporte (J/metros cúbicos).

Pode resolver o problema das mudanças climáticas se não produzir muita poluição.

Em suma com a solução do problema energético, uma série de outros problemas automaticamente se resolvem.

Então vamos a energia então:

A gasolina que tem quase 35 MegaJoules por litro é um dos combustíveis mais utilizados do mundo. No entanto, temos de converter a relação em MegaJoules por litro para MegaJoules por quilograma.

Com isto temos aproximadamente 45 MegaJoules (MJ) por quilograma (MJ/kg).

O hidrogênio tem uma densidade de 142 MJ/kg.

O carvão tem uma densidade perto de 30 MJ/kg.

O problema é que precisamos:

a) Extrair esta energia de modo eficiente
b) Faze-la de modo barato

Até agora, a maioria dos sistemas de conversão de energia se valem de princípios: mecânicos, térmicos ou uma junção de ambos. Uma usina nuclear é uma usina a vapor na realidade. A mesma coisa com uma de carvão ou de gás natural (termoelétricas). Todas se baseam em última análise na máquina a vapor. Isto é assim devido a natureza da conversão de energia mecânica para energia elétrica. Essencialmente se converter um movimento mecânico (em geral rotação) em eletricidade. Uma exceção notável é justamente o automóvel que converte energia liberada em reações químicas exotérmicas em energia mecânica (é uma máquina térmica que não se vale da eletricidade como produto final, mas o movimento).

Mas uma exceção mais notável ainda são os processos que se baseam em condução de portadores de carga e sua geração, através de alguma forma externa de energia - que pode ser mecânica, térmica ou luminosa.

Desta classe saem os painéis solares, os termopares e dispositivos cuja pressão mecânica gera corrente.

Estes dispositivos até que são bem interessantes, mas em geral de pouca eficiência.

Um gerador elétrico pode ter eficiências relativamente altas (40-60%). Já um painel solar tem no máximo de 15 a 20%.

E isto sem entrar no problema dos materiais necessários para sua construção.

E nisto também mora o problema da grande maioria das formas de geração baseadas em semicondutores.

Entretanto, a solução está aí em algum lugar. Pode estar:

a) No aumento da eficiência de conversão
b) Na descoberta de novas formas de conversão de energia
c) Em métodos que possam armazenar energia a baixo custo em pequenos volumes

Quer um prêmio Nobel? Aí está o problema do século XXI

terça-feira, 5 de janeiro de 2010

Um Caso Prático - Teste de Gravidez Caseiro

A chance de uma gravidez em decorrência de atos sexuais aleatórios é de 24%

Como os testes caseiros de fertilidade tem uma sensitividade de 97% quando realizados corretamente, então podemos estimar a probabilidade de gravidez dado que o teste deu positivo.

P(Gravidez|+)=P(+|Gravidez)*P(Gravidez)/P(+)

Aonde:

P(+)=P(+|Gravidez)*P(Gravidez)+P(+|Não Gravidez)*P(Não Gravidez)

Colocando isto em números:

P(+) = 0.2556

e portanto:

P(Gravidez|+) = 0.97*0.24/.2556 = 0.9107981221 (91.08%)

Isto também indica que P(Gravidez|-) = 0.0892018779 (8.92%)

A questão de diversos resultados e repetições

Toda a análise anterior se baseou no fato do resultado ter saído igual em todas as repetições. Mas na realidade isto pode não acontecer. Então o que fazer?

Neste caso temos que considerar as tentativas de Bernoulli na análise. E já que estamos nisto temos de considerar o grupo de risco nesta situação.

Primeiro caso: Grupo de risco de 0.009

Vamos considerar a situação que o primeiro teste deu positivo. Então o camarada repete o teste e ele dá negativo. E aí repete e dá positivo, repete novamente e dá positivo Como fica neste caso?

1 teste - P(Problema|+)=0.4734325186
2 testes - P(Problema|+-)=0.3101506138
3 testes - P(Problema|+-+)=0.9683235084
4 testes - P(Problema|+-++)=0.9995641483

Segundo caso: Grupo de risco de 0.09

Não há alteração no cálculo de P(+|Problema). Então vamos calcular agora para o grupo de risco em questão

1 teste - P(Problema|+)=0.9073319756
2 testes - P(Problema|+-)=0.8303964758
3 testes - P(Problema|+-+)=0.9970051042
4 testes - P(Problema|+-++)=0.9999599614

Terceiro caso: Grupo de risco de 0.9

Não há alteração no cálculo de P(+|Problema). Então vamos calcular agora para o grupo de risco em questão

1 teste - P(Problema|+)=0.9988789238
2 testes - P(Problema|+-)=0.9977605863
3 testes - P(Problema|+-+)=0.9999669913
4 testes - P(Problema|+-++)=0.9999995600

Pelo que podemos ver, a separação em grupos de risco aumenta a confiabilidade mesmo no caso em que há um resultado negativo no conjunto de testes.

Uma pergunta que é feita é:

Se o primeiro teste foi positivo e estou em um grupo de riscos, quantos testes preciso fazer para me tranquilizar?

Bem, depende do que você chama tranquilizar.

Mas é possível estimar isto. Vamos considerar primeiro a população em geral (grupo de risco de 0.009), então a probabilidade do positivo ser falso é:

1 teste - P(Não Problema|+)=0.5265674814
2 testes - P(Não Problema|+-)=0.6898493862
3 testes - P(Não Problema|+--)=0.7693554527
4 testes - P(Não Problema|+---)=0.8163855186

Para 10 testes teremos uma probabilidade de 0.9171507405.

Já para grupos de risco de 0.9, 10 testes diminuem a probabilidade para 0.5040984105

segunda-feira, 4 de janeiro de 2010

Como melhorar a chance de evitar falsos positivo e negativo


Como vimos a sensitividade (P(+|Problema)) não chega a ser maravilhosa em vários tipos de teste.

Mas existem algumas estratégias para se melhorar as chances.

A primeira é repetir os testes. Por exemplo: repetindo os testes. Considerando uma sensitividade de 0.99 temos que:

1 teste - P(+|Problema)=0.99
2 testes - P(+|Problema)=0.9999
3 testes - P(+|Problema)=0.999999
4 testes - P(+|Problema)=0.99999999

Nestes casos teremos que:

1 teste - P(Problema|+)=0.3322147651
2 testes - P(Problema|+)=0.5540628800
3 testes - P(Problema|+)=0.7022097756
4 testes - P(Problema|+)=0.8011400851

10 testes - P(Problema|+)=0.9823652981

Então fazendo o teste 10 vezes reduzimos a chance de erro para 1 a cada 50.

Naturalmente, isto se complica pois temos que considerar o problema da repetição (Bernoulli) como um todo e não apenas que sai o mesmo resultado 10 vezes. Mas vou voltar a isto depois.

Bem, existe ainda uma outra possibilidade. Nos nossos exemplos supomos que a taxa de incidência na população era de 0.005.

Mas o que acontece se ela for maior, como por exemplo 0.05?

Nesta situação teremos com a mesma sensitividade do caso anterior:

1 teste - P(Problema|+)=0.8389830508
2 testes - P(Problema|+)=0.9740735421
3 testes - P(Problema|+)=0.9958254008
4 testes - P(Problema|+)=0.9993278188

10 testes - P(Problema|+)=0.9999999883

O resultado é bastante melhorado. A utilização de apenas 4 testes reduz a margem de erro para 7 a cada 10 mil.

O truque aqui é aumentar o percentual da população com probabilidade de ter o problema. Isto é o que pode ser chamado de qualificação de risco (grupo de risco ou comportamento de risco).

Então separar a população de acordo com o grupo de risco serve para aumentar a eficácia do teste.

E isto funciona melhor quanto mais específicas são as populações.

Podemos fazer um exemplo com 1 teste apenas (e a mesma sensitividade anterior):

Grupo de risco 2 - P(Problema)=0.009, então P(Problema|+)=0.4734325186
Grupo de risco 1 - P(Problema)=0.09, então P(Problema|+)=0.9073319756
Grupo de risco 0 - P(Problema)=0.9, então P(Problema|+)=0.9988789238

Esta é uma espécie de pré-processamento que melhora em grande parte a confiabilidade do teste.

Vamos voltar depois ao caso de vários testes considerando falsos positivos e negativos.

Falsos Positivo e Negativo


Um problema frequentemente não discutido na mídia ou mesmo em qualquer meio de divulgação mais leiga é a questão do falo positivo.

Em termo simples o falso positivo é um resultado de um exame que é positivo quando o sujeito em questão NÃO possui o problema que se deseja determinar.

Um exemplo: uma pessoa testa para gripe. O resultado do teste é positivo mas a pessoa em questão não tem a gripe.

Existe o problema reverso que é o do falso negativo. Neste caso o teste indica que a pessoa não tem o problema quando na realidade o possui.

Então para caracterizar a confiabilidade de um exame é necessário se saber quais são as taxas de falso positivo e falso negativo.

Isto é o que é frequentemente esquecido nas gavetas da informação.

Então vamos ver como usar isto.

Primeiro é necessário saber a probabilidade que uma pessoa com determinado padrão de comportamento se encaixe no grupo de risco do problema. Se é um problema sem características de grupo de risco então podemos utilizar as taxas globais de incidência do problema.

Vamos dizer que esta probabilidade P(Problema). Por conseguinte a probabilidade da pessoa não ter o problema é P(Não problema) = 1-P(Problema)

Agora precisamos das taxas de falso positivo e de falso negativo. Estas são expressas da seguinte maneira:

P(+|Problema) - constitui o que é chamado de sensitividade do teste.

P(-|Não Problema) - constitui o que é chamado de especificidade do teste.

A Probabilidade de um falso positivo é:

P(+|Não problema) que é igual a 1-P(+|Problema)

A Probabilidade de um falso negativo é:

P(-|Problema) que é igual a 1-P(-|Não Problema)

No caso, pelo Teorema de Bayes temos que a probabilidade se se ter o problema dado que o teste é positivo é:

P(Problema|+)=P(+|Problema)*P(Problema)/P(+)

Para sabermos queme é P(+) temos que somar as probabilidades de termos um positivo real e um falso positivo. Neste caso temos

P(+)=P(+|Problema)*P(Problema)+P(+|Não Problema)*P(Não Problema)

Como fazer isto? Vamos colocar números:

P(Problema)= 0.005
P(Não Problema)=1-P(Problema)=0.995
P(+|Problema)=0.99
P(+|Não Problema) = 1-P(+|Problema) = 0.01

P(+)=0.99*0.005+0.01*0.995 = 0.0149

Assim:

P(Problema|+)=P(+|Problema)*P(Problema)/P(+) = 0.99*0.005/0.0149 = 0.3322

Ou 33.22% é a probabilidade de se ter o problema dado que dado que o teste foi positivo. Por conseguinte:

P(Problema|-)=1-P(Problema|+) = 0.6678

Uma forma de melhorar isto é realizar testes repetidos, pois nestes casos:

P(+|Problema)=0.9999
P(+|Não Problema) = 1-P(+|Problema) = 0.0001

Assim:

P(+)=0.9999*0.005+0.0001*0.995 = 0.005099

Portanto:

P(Problema|+)=P(+|Problema)*P(Problema)/P(+) = 0.9999*0.005/0.005099 = 0.9805

E naturalmente:

P(Problema|-)=1-P(Problema|+) = 0.0195

Então veja que nestas circustâncias a repetição do teste é uma excelente forma de garantir que o resultado é aquele mesmo esperado.

Alguns exemplos:

- Teste para álcool: sensitividade 0.26-0.4 (P(+|Problema)), especificidade 0.88 a 0.99 (P(-|Não Problema))

- Teste para H1N1: sensitividade 0.52

- Teste para AIDS: sensitividade 0.99

Mas a coisa muda quando se está dentro de um grupo de risco. Eu volto a este ponto em outro post.

domingo, 3 de janeiro de 2010

Primeiro Post do Ano tem de ser digno do nome do blog

E este é um caso assim:

O professor Claudio Salm investigou os números da Pesquisa Nacional por Amostra de Domicílios de 1996 e 2002 (anos tucanos) e daí a de 2008 (anos petistas). Ele verificou que a ideia segundo a qual Nosso Guia mudou radicalmente a vida do andar de baixo nacional é propaganda desonesta. Estimando-se que no andar de baixo estejam cerca de 50 milhões de pessoas (25% da população), o que se vê nas três Pnads estudadas por Salm é uma linha de progresso contínuo, sem inflexão petista.

Estamos em 2010, que será um ano eleitoral. E isto significa  mentiras a torto e a direito. Infelizmente, as mesmas pessoas que acham um absurdo os desvios de ética não tem o menor pudor de fazer o mesmo ao mentirem e manipularem dados. E isto não é privilégio de nenhum partido ou agremiação. Não parecem existir exceções.

Os dois principais partidos acusam uns aos outros de terem sido catastrófes para o Brasil. Na realidade, nenhum dos dois foi - ambos foram muito positivos para este país.

E porque eu me importaria com isto?

Porque aparentemente, as pessoas começam a acreditar na própria propaganda. O que é:

a) Estúpido
b) Perigoso

Porque estúpido? Esta é fácil: o interessado deixa de ter uma avaliação adequada da realidade e passa a ter uma visão distorcida baseada em marketing.

Porque perigosa? Pelo mesmo motivo anterior. Quando se tem avaliações erradas, tendem a se tomar decisões erradas. Quanto mais errada a avaliação, mais potencialmente catastrófica a decisão.

E este erro já foi cometido pelo PSDB e pelo PT. Foi cometido pelo PT em 1998 quando avaliou de modo totalmente equivocado o efeito do plano real. E em 2002 pelo PSDB quando avaliou de modo muito idiota a grandeza da popularidade de Lula.

E como estamos em 2010, o jogo começa novamente