segunda-feira, 31 de agosto de 2009

Mini Turbina para Geração Hidroelétrica

Com os conceitos da Lei de Faraday é possível projetar e montar uma mini-turbina para geração de energia elétrica




O conceito é simples: queda de água que possui determinada energia potencial é convertida em energia cinética. Parte desta energia cinética é convertida em potência. Se o sistema tem uma vazão v e uma densidade rho com uma altura h então a potência é:

P=v*rho*g*h

Um torneira de pia tem vazão de cerca de 0.5 l/s, rho é 1, g é 10 e h é 0.2

Temos então:

P=0.5*0.2*10 = 1 W

Supondo uma eficiência de 50% temos cerca de 0,5 W. Se dá para acender os Leds? Sim, desde que se use um valor apropriado para as bobinas envolvidas.

domingo, 30 de agosto de 2009

Lei de Ampere

Similar a Lei de Faraday, temos a Lei de Ampere. Embora esta lei tenha ramificações eletrodinâmicas, o exemplo mostrado aqui é essencialmente baseado em conceitos da magnetostática.



De modo simples, a corrente que flui pela bobina é responsável pelo surgimento de um campo magnético. Este campo irá causar uma força que fará a agulha se alinhar com o campo gerado.

Lei de Faraday

Seguindo a idéia, coloco aqui um exemplo em vídeo do funcionamento da Lei de Faraday. Claro que a versão em inglês do texto é bem mais completa.




A Lei de Faraday diz mais ou menos que a variação do fluxo magnético em uma superfície definida por um caminho fechado causa uma força eletromotiva neste caminho (que no fundo é uma voltagem, tensão, ou...).

Lei de Coulomb

Resolvi iniciar uma novo tema: eletromagnetismo.

A idéia é postar vídeos de experimentos que demonstram conceitos considerados fundamentais.

O primeiro destes é a Lei de Coulomb




De modo simples, temos uma explicação mais detalhada no wikipedia. Mas em inglês a explicação é mais detalhada.

Vou tentar na medida do possível incluir novos exemplos com experimentos no youtube

Pensando sobre "A Onda"

Ver o filme (bem algumas partes) foi muito interessante.

Primeiro porque eu vi o filme muitos anos atrás (décadas mesmo).

Segundo porque o tempo adiciona mais bagagem para entender os eventos descritos no filme. Na época que vi o filme pela primeira vez o Brasil ainda se encontrava sob governo militar. Então o filme foi entendido como uma forma de rebelião contra opressores e as formas que se podia cair nas "armadilhas" dos mesmos.

Hoje vejo que os eventos descritos apenas trazem a luz características intrínsecas a condição humana. Como animais sociais temos "programada" na nossa psique o comportamento descrito em "A Onda". Ao nos juntarmos a um grupo, qualquer que seja, estamos de alguma forma abandonando elementos de comportamento sozinho em benefício do comportamento grupal.

E por sermos sociais, isto é algo muito muito poderoso. Com as confusões na UnB em 2008, foi com grande esforço que consegui mesmo que parcialmente escapar da tendência do julgamento coletivo e da auto isenção (tendência que não é das mais corajosas - mas foi adotada pela imensa maioria dos meus colegas).

Ao mesmo tempo, por fazer parte do grupo, a tendência a desculpar e justificar o comportamento do grupo - mesmo que apenas dos cabeças do grupo - era também muito poderosa. O contraste entre o acontecido e a reconciliação com a realidade ainda é algo que estou aprendendo a administrar.

Fico imaginando se de um jeito ou de outro não é este o comportamento real que temos quando passamos a fazer parte de qualquer grupo.

Algo como fases:

Curiosidade - uma espécie de ensaio do que a participação do grupo pode trazer (levamos meio que na brincadeira ou espírito aventureiro). Não notamos, mas começamos a levar o grupo a sério pouco a pouco.

Participação - passamos a atuar dentro do grupo de modo mais ativo e menos na brincadeira. Ficamos satisfeitos quando as tarefas assinaladas são cumpridas.

Compromisso - passamos a adotar o grupo da mesma forma como ele nos adotou. Neste ponto, tarefas mais importantes são realizadas e temos sensação de direção e propósito.

Ruptura - pode ser que não ocorra, mas se ocorrer trás em si uma sensação de abandono ou isolamento. Também há uma sensação de impotência e desilusão.

Isto valeria para todos os grupos: partidos, agremiações, sociedades, etc...

E mesmo o trabalho, quando for o caso.

Fico imaginando, se com as relações sociais cada vez mais presentes nas redes e no modo virtual se isto não está evoluindo para novas formas até mais abrangentes.

sábado, 29 de agosto de 2009

A Onda

Finalmente encontrei no youtube o filme "A Onda" de 1981. O link para o youtube é esse aqui:



É um filme interessante e baseado em um episódio real.

O que acho mais interessante é que este episódio conta algo sobre nós como sociedade. Parece ser quase irrestível a pressão para fazer parte de grupos e para ser parte de grupos (note que usei "fazer parte" e "ser parte" de modo diferente - isto é intencional).

sexta-feira, 28 de agosto de 2009

O Banquete de Platão

Você sabe o que significa "Amor Platônico"?

E de onde vem a expressão?

Bem, vem do livro "O Banquete" de Platão. A expressão é utilizada para designar a situação peculiar entre Alcebíades e Sócrates.

Muito ao contrário do que se pensa, a expressão não denota o amor não consumado (fisicamente) entre homem e mulher.

Mas trata do amor não consumado entre dois homens.

Este é mais um exemplo da série "Coisas que você pensava que sabia"

quinta-feira, 27 de agosto de 2009

Papéis na mídia

Todos temos nossa parte a fazer, certo?

Bem, será realmente que o mundo é um grande palco?

Eu acredito que sim. Pelo menos na questão do que nos é apresentado nos veículos de comunicação.

Já havia notado este tipo de efeito em uma viagem que fiz anos atrás aos Estados Unidos. Na época comentaristas tais como Rush Limbaugh and Ann Coulter já me davam nos nervos.

Até eu entender o papel que estas pessoas tem no palco.

No Brasil temos como fenômenos recentes Reinaldo Azevedo, Diego Casagrande e outros...

O objetivo é criar polêmica mesmo. A controvérsia é o objetivo!

E porque ter como objetivo a controvérsia e a polêmica? Bom, aí temos que entender um pouco da psicologia de massas e de como as pessoas se convencem das coisas.

Primeiro, apesar do debate racional argumentativo e fundamentado ser uma forma precisa e com pouca ou nenhuma polarização, não é assim que as pessoas chegam as conclusões.

Na realidade, qualquer um pode tentar fazer a experiência: tentar usar lógica quando uma pessoa já tem decisão formada com pouco embasamento lógico mas um forte embasamento emocional é uma tarefa difícil e até perigosa. Pode ser em tópicos como religião, aborto ou mesmo time de futebol.

E aí chegamos ao cerne: a forma de convencimento que os polemistas usam é mais baseada na emoção (ou manipulações delas) que em lógica argumentativa. Então é mais fácil que a mensagem ressone com as pessoas previamente dispostas emocionalmente as idéias apresentadas.

Então neste caso vale tudo: ironia, desprezo, uma mentirinha difícil de ser rebatida aqui ou acolá. Vale realmente tudo.

Quem é a audiência? Geralmente quem se opõe de modo PRIMARIAMENTE emocional ao alvo em questão.

Se é Lula então a audiência é o público bem educado, com recursos que se sente desprezado e até mesmo ameaçado pelo político com educação secundária mas com ligação direta com o povo.

E notem que o alvo é atacado justamente nos pontos que se dissocia da audiência (exemplo: Lula é analfabeto - e ele não é, muito pelo contrário, Lula é populista - pode até ser, mas na realidade ele é popular).

E se o alvo for outro? Por exemplo, Sarney? Bem, ele é rico, não tem respeito pela opinião de vocês, é político - e portanto duas caras... Pode escolher.

Se é verdade? Bem para o polemista isto pouco importa, ele não está interessado na verdade, ele está interessado é na sua audiência e com base nisto que ele polemiza.

Infelizmente o polemista está aqui para ficar - o papel que esta figura atua começou a se tornar mais visível a partir da tendência mundial que os veículos de informação se transformem também em veículos de entretenimento.

Então, só podemos nos preparar

quarta-feira, 26 de agosto de 2009

Regra de Trânsito

Após olhar em um determinado site verifiquei que há uma espécie de regra que diz:

"A diminuição de 1km/h na velocidade média leva a uma diminuição de 3% no risco de acidente com lesão no trânsito".

Chegando a alguns números no Brasil , vi que o aumento no número de carros de 1.2% leva a 1% na diminuição do número de acidentes com lesão no trânsito.

Isto não é mal, pois de um modo mais ou menos aproximado que se quisermos diminuir em 10% as mortes, o melhor efeito será com um aumento de 12% no número de carros.

A conta é que um aumento de 29% no número de veículos levou a uma diminuição de 8 km/h na velocidade média. O que dá 3.6% de aumento no número de veículos leva a uma diminuição de 1 km/h.

Portanto um aumento de 3.6% no número de veículos leva a uma diminuição de 3% no número de acidentes com lesão no trânsito. O que dá 1.2% de aumento leva a 1% na diminuição de acidentes.

Mas é claro que é só aproximação. Afinal o mundo não é linear...

Uma questão séria

Vamos pensar em um produto imaginário X.

Mais ainda X é um narcótico/estimulante/sedativo/alucinógeno.

Este produto, por ter propriedades viciantes, pode levar a situações de mercado cativo.

Mais ainda, devido ao vício, X tem consequências na saúde pública.

Como os governos e populações devem lidar com este problema?

Este é um pepinão.

Proibição? Bem, isto funcionou muito bem com a pirataria, não?

Liberalização? Mas e as consequências para saúde pública?

A questão é complexa. Acredito, por razões ainda não muito claras para mim, que a melhor abordagem para resolver esta questão é uma análise de custo versus benefício (ou custo 1 versus custo 2).

Se olharmos a história, a proibição de substâncias narcóticas (ou relacionadas) teve sempre outros objetivos não tão nobres ou mesmo totalmente equivocados em mente. Tivemos proibições sobre café, álcool, ópio, marijuana, etc...

E estamos com o mesmo problema há várias centenas (quiça milhares de anos).

Do modo que vejo temos um produto X com um mercado. Para evitar o consumo deste produto só podemos atuar em duas frentes: na oferta e na demanda.

Podemos atuar em uma ou nas duas. A proibição com criminalização pode atuar em âmbos, sendo que neste caso teremos um custo associado maior para manter o produto X fora do mercado.

Mas será que é efetivo? Uma atuação só do lado da oferta faz com que o custo para o consumo de X aumente. Inicialmente como existem mais mercado do que produtores, parece fazer sentido atuar na produção de X.

Ao mesmo tempo pode-se seletivamente tornar X economicamente inviável. Para tanto, o modo mais simples é tornar os custos de produção muito elevados. No entanto, há o mercado...

E se mesmo diminuir o mercado, este estiver determinado a pagar mais pelo consumo de X então ele o fará. E a menos que se eliminem todos os produtores (e que tornem impossível o surgimento de novos candidatos), então qualquer que seja a estratégia tem-se estar preparado para o fato que um percentual de X sempre será produzido e consumido.

O que leva a outro ponto, atuar sobre a produção terá um custo. E o custo para erradicação será função de quão simples é a produção de X. Quanto mais simples, maior o custo.

E isto leva a conclusão lógica que um campo de teste para uma política de drogas é justamente no consumo de substâncias de manufatura complexa. A priori, este será o campo que apresentará maior relação de custo-benefício no caso do combate a produção.

Mas, naturalmente este campo é geralmente o de mercado mais restrito. E aí cai-se na questão de se o esforço é realmente necessário.

Então, o campo de testes tem de ser de uma substância de manufatura complexa e mercado grande. Nesta arena temos diversos candidatos: heroína, cocaína, extasy, LSD...

Mas claramente o campo aonde tudo é mais complicado é claramente o das drogas que podem ser feitas de modo mais simples. E o mais caro...

Então o que fazer com relação a X?

terça-feira, 25 de agosto de 2009

O problema da fonte

Uma das regras básicas que se deve ter em mente quando se lê uma notícia é: quem é o responsável pela estória e a quem interessa sua divulgação.

Se os dois elementos são coincidentes, então muito cuidado com o que esta sendo dito.

Caso em questão: matéria do Correio Brasiliense de segunda afirmando que a pirataria é consumida essencialmente por população de alta renda.

Bem, de certa forma faz sentido. E ao mesmo tempo não faz.

Uma pesquisa similar já havia sido feita em 2007 (e novamente aqui) e também em 2008.

E tem-se registros de uma similar em 2005.

O interessante é quem financia a pesquisa e subsequente publicação: em geral as associações de produtores que são de certa forma lesados com a pirataria.

Não há nada errado com isto, exceto que na realidade a intenção não pode ser considerada exatamente descompromissada com a questão. As pessoas responsáveis por isto são parte interessada no fim da pirataria.

A última pesquisa foi realizada pelo Instituto Milenium.

O texto do Correio diz: "As informações constam de estudo encomendado pelo Instituto Millenium, organização sem fins lucrativos com foco no desenvolvimento humano, sobre o hábito do brasileiro em relação à pirataria."

Ah, mas quem financia o Instituto? Basta dar uma olhada na parte de quem é o instituto. E aí fica difícil acreditar que não existe interesse direto envolvido na história,

Mas não é só isto, a reportagem fala que: "A entidade pretende enviar as informações, ainda inéditas, a autoridades que atuam no combate à pirataria."

O problema é que as reportagens de 2005, 2007 e 2008 já falavam mais ou menos isto.

Então eles estão mentindo? Muito provavelmente não. Apenas estão adequando suas informações ao maior impacto possível.

Bem, então eu sou favorável a pirataria? Muito pelo contrário.

Mas meu ponto é outro: porque temos pirataria? Quem são os responsáveis reais pela pirataria? É a carga tributária? É a internacionalização do processo produtivo? É a exclusão do consumidor do mercado?

Ah! Esta é a questão...

E não é nada fácil de responder - os japoneses começaram com cópias de má qualidade. E agora são os mais avançados nas áreas que atuaram.

E claro, existem exemplos que chegam a ser hilários mostrando o que as pessoas consideravam como cópias ilegais ou idéias realmente idiotas que ainda são usadas.

segunda-feira, 24 de agosto de 2009

Erros de imprensa

Em uma busca recente encontrei diversos casos de erros da mídia que valem a pena ser observados.

Temos:

- Leonardo Teodoro de Castro

- Geovan Joaquim da Silva

- Caso do Bar Bodega

- Caso da queda do Fooker 402

Todos eles mostram de modo inequívoco que a cobertura da imprensa pode sob certas condições levar a acusações levianas e errôneas com consequências nada simples.

Mas isto desmerece o trabalho da mídia? Bem, sim e não.

Todos estão sujeitos a erros. Isto é parte da natureza humana. E acredito mais ainda nisto depois de ler este artigo da Physics Org.

No entanto, o que conta realmente como prova de caráter (ou falta dele) é quais são as nossas ações uma vez que os erros são verificados.

E neste ponto, muitos veículos tem tido comportamento menos do que estelar.

Aparentemente, a estratégia mais comum é fingir que não é com ele. Seguida da negação do erro e por fim minimização do mesmo.

Dificilmente e a muito custo é que se chega na parte de aceitação do fato e tentativa de reparação do mesmo.

Isto, por mais perverso que pareça tem uma certa lógica. É importante lembrar que a credibilidade do veículo é parte importante na sua existência. E um erro poderia ser percebido como uma falha na aura de busca da verdade - mais ainda um erro com consequências potencialmente trágicas.

Acredito que uma forma de mitigar este tipo de problema é permitir que os leitores/ espectadores possam procurar mais detalhes com referenciamento adequado (pela divulgação de notas escritas, depoimentos, etc...).

Digo mitigar, pois não creio que resolva o problema da publicação de erros. Mas ao menos parte da responsabilidade dos mesmos passa aos espectadores/ leitores.

Pois afinal, buscamos de um modo ou de outro informações que conformem e fortaleçam nossa visão de mundo.

Difícil é fazer o contrário...

sexta-feira, 21 de agosto de 2009

quinta-feira, 20 de agosto de 2009

A lente de aumento e a instabilidade

O efeito lente de aumento tem um lado que pode se tornar perverso.

Ao ampliar o tamanho do problema, ele causa uma realimentação na sociedade.

E claro que a sociedade irá responder a esta realimentação. A forma como irá responder pode causar uma série de consequências. Imagino que seja algo na linha da realimentação descrita em teoria de controle.

O problema é que este efeito pode levar a situações complicadas.

Pensando em um sistema linear aonde a saída é função da entrada:

Vout=H*Vin

No caso, a realimentação introduz um efeito de amostragem da saída na entrada novamente:

Vin' =Vin - G*Vout

Assim, o novo sistema se torna

Vout = H*Vin-G*H*Vout

Rearranjando:

Vout =H/(1+G*H)*Vin

Dá para ver que seja G=-1/H, teremos problemas.

Se o sistema não for linear então

Vout=H(Vin)

Vin'=Vin+G(Vout)

Logo

Vout=H(Vin+G(Vout))

Este tipo de problema pode ser considerado a procura de um ponto fixo (Vout). E por não ser linear pode dar problemas.

Exemplo, vamos dizer que H= ()^2 e G=sqrt()

Se Vin=x, então temos de resolver a equação:

y=(x+sqrt(y))^2

resolvendo:

y=x^2+2*x*sqrt(y)+y

Logo:

x^2+2*x*sqrt(y)=0

A solução é:

sqrt(y)=-x/2

Portanto, só existe solução real para x negativo. Substituindo uns números podemos ver isto:

se x=-1, então temos:

sqrt(y)=1/2 e y=1/4 -> y=(-1+sqrt(1/4)^2 = 1/4

se x=1, não temos solução real - e o sistema pode levar a instabilidade. Isto é o que significa o reforço positivo que pode causar que o sistema atue de modo descontrolado 0 ou até mesmo caótico.

Efeito lente de aumento

É conhecido um efeito que existe na divulgação de notícias: o efeito lente de aumento.

Ele é naturalmente consequência de como as coisas funcionam.

A mídia informa o que considera notícias. A reação da população (mais especificamente do público alvo) a estas notícias é que serve de mecanismo de realimentação para a mídia. Caso a mídia insista em veicular notícias que não interessem ao seu público alvo, então terá o seguinte dilema: o que ela considera notícia não coincide com o que o público alvo considera notícia.

Então de um modo ou de outro, em primeira aproximação, a mídia realmente mostra o que o público tem interesse em ver.

E isto causa uma realimentação positiva também no público alvo. Ao enxergar o que lhe interessa e apraz veiculado na mídia, a tendência é reforçar o interesse naquele tópico em particular.

E caso em questão: mesmo que os eventos veiculados sejam um percentual pequeno da realidade, a tendência é considerar estes eventos como de singular importância.

Naturalmente, existem informações que transcendem este tipo de relacionamento devido a sua amplitude ou gravidade. Mas mesmos esta notícias podem ser interpretadas neste contexto dependendo da sua severidade.

Eu volto a este ponto depois

Um adendo sobre determinadas relações

O que a Lei de Smeed mostra é que o mundo tem certas complexidades que parecem desafiar soluções intuitivas.

Uma curva como a de Smeed se reflete em um comportamento do tipo normal entre número de acidentes fatais e número de carros registrados.

Isto quer dizer que dependendo do ponto da curva determinadas soluções intuitivas podem piorar o problema ao invés de melhora-lo. E isto tem ramificações profundas.

Um exemplo: no início da curva, a diminuição do número de carros registrados irá levar a uma diminuição no número de acidentes fatais.

Já no final da curva, a diminuição do número de carros registrados irá levar a um aumento no número de acidentes fatais.

Então uma política que serve para um determinado estágio do problema tem o efeito contrário se aplicada em outro estágio.

Eu desconfio que o número de regras segue uma trajetória similar.

Ao incentivar a criação e uso de regras claras, a dinâmica da sociedade tende a melhorar.

Mas é possível que a partir de uma determinada quantidade de regras, o aumento das mesmas pode levar a dinâmica da sociedade a se deteriorar.

É algo a se pensar...

terça-feira, 18 de agosto de 2009

Ora, ora, não fui o primeiro

O post anterior trata da questão do número de acidentes fatais em relação ao número de carros. E chegamos a conclusão que o aumento indefinido do número de carros não leva a um aumento indefinido no número de acidentes fatais.

Muito pelo contrário

Podemos dizer que inicialmente o aumento no número de carros leva a um aumento no número de acidentes. Mas a partir de certo ponto, este aumento no número de carros tem de levar a uma diminuição no número de acidentes.

Isto já tinha sido notado por um camarada chamado Rubens Smeed.

A lógica por trás do raciocínio é diferente da que usei, mas ele enunciou a Lei de Smeed que diz mais ou menos a mesma coisa.

Na minha visão, a questão central era a velocidade média. A partir de um determinado volume de carros, esta velocidade tem de cair.

Se consideramos X metros de pista e o tempo de reação de T segundos temos que poderíamos ter que o quanto cada carro ocuparia deste comprimento seria o seu comprimento + o equivalente em metros ao tempo de frenagem que ele teria: L+DL

Aonde DL é uma função do tempo de reação e da velocidade do carro:

DL=f(V,T)

Então o número de carros por X metros de pista seria: N_carros = X/(L+DL)

A medida que V aumenta DL também aumenta - e portanto o número de carros em X metros diminui.

A medida que V diminui DL também diminui - e portanto o número de carros em X metros aumenta.

Assim, o número de carros por via é negativamente correlacionado com a velocidade média dos carros.

Para simplificar vamos considerar que DL=V_med*T, assim:

N_carros=X/(L+V_med*T)

Chamando X/L do máximo número de carros por via N_max então:

N_carros = N_max/(1+V_med*T/L)

Se todos os carros e motoristas forem iguais então podemos chamar L/T de V_base

Então temos:

N_carros = N_max/(1+V_med/V_base)

Agora temos de definir o percentual de vítimas fatais em acidentes.

Podemos modelar os acidentes fatais como uma função g(Vmed, N_carros). Para evitar problemas, sabemos que aumentando o número de carros no local o número de acidentes deve aumentar, mas para serem fatais temos de ter uma velocidade média elevada.

Então em uma primeira aproximação:

n_acidentes = n0+k1*N_carros+k2*Vmed+k3*N_carros^2+k4*V_med^2+k5*N_carros*V_med+...

Descontando um número residual de acidentes, então se Vmed=0 então não podem ter acidentes fatais. Da mesma forma com N_carros igual a zero a mesma coisa deve acontecer.

Então os termos que só dependem de uma das variáveis devem ser zero. O que significa que:

n_acidentes =k*N_carros*V_med*(1+termos de ordem superior)

Então em primeira aproximação:

n_acidentes =k*N_carros*V_med

Mas N_carros é conhecido:

N_carros = N_max/(1+V_med/V_base)

Logo podemos dizer que:

n_acidentes =k*V_base*N_max*V_med/Vbase/(1+V_med/V_base)

Essencialmente isto se comporta como:

x/(1+x)

Ou seja, tende a zero para V_med zero e a um valor constante quando V_med vai a infinito

Na realidade, o máximo que V_med pode alcançar é V_base então o valor máximo ocorre como:

k*V_base*Nmax/2

Quando V_med é zero significa totalmente congestionado (N_carros = N_max)

Então temos aí a queda esperada. De forma alternativa:

N_max/N_carros =(1+V_med/V_base)

Logo Vmed = Vbase*(N_max/N_carros -1)

e portanto:

n_acidentes =k*V_base*(N_max-N_carros)

Que também tem uma queda, só que linear...

Mas é um modelo interessante

Tráfego e acidentes

Li no jornal de hoje (Correio Brasiliense) que o trânsito aumentou, mas o número de mortes caiu.

Francamente, não acredito que isto seja surpresa. Pensando calmamente a respeito, dadas condições iguais, o número de acidentes fatais deve ser proporcional ao número de veículos nas ruas.

N_acidentes = k1*N_carros

Até aí tudo bem.

Mas ao mesmo tempo, o número de mortes deve ser proporcional a velocidade média do sistema.

N_acidentes = k2*V_médio

Bem, na realidade pode ser que este número seja proporcional a raiz quadrada, ao quadrado, mas vamos simplificar...

Então

N_acidentes = k3* N_carros * V_médio

(Na realidade, isto me faz pensar se não seria N_acidentes = sqrt(k1*k2*N_carros*V_médio) - mas isto fica para depois)

Então neste modelo simples, aumentando o número de carros, aumenta-se o número de acidentes E aumentando-se o V_médio aumenta-se o número de acidentes.

No entanto, V_médio é função de N_carros. Quanto maior N_carros, menor é o V_médio.

Então temos: se V_médio diminuir de modo linear com relação ao N_carros:

V_médio=V_0-a*N_carros

Então N_acidentes=k3*[V_0*N_carros-a*N_carros^2]

Então o número de acidentes irá passar por um máximo em:

N_carros = V_0/(2*a)

Com um número de acidentes:

N_acidentes = k3*[V_0^2/(4*a)]

E claro, o V_médio será zero em:

N_carros = V_0/a

Este tipo de análise é muito simplificada, mas pode trazer alguns benefícios pois como está baseada em aproximações lineares então é possível extrair dados do modelo de curvas reais (número de carros x acidentes fatais e velocidade média x acidentes fatais - por exemplo)

Isto merece mais investigação

segunda-feira, 17 de agosto de 2009

Auto consciência

Neste post quero divagar um pouco sobre a questão do chamado "Self Awareness"

Dizemos que somos a única espécie na terra que possui esta característica. Mas será que é verdade?

A questão é frequentemente definda em termos da existência do pensamento - e na capacidade de pensar sobre a própria condição. Isto é o que originalmente fez Descarte em "Cogito Ergo Sum"

Mas esta característica parece ser mais comum do que se inicialmente pensava. Hoje se sabe que diversos animais possuem a capacidade de "Self Awareness"

A verdade pura e simples é que: provavelmente, dada a forma como se evoluiu, devem existir diversos animais que podem possuir esta capacidade.

Mas e daí?

Bem, o ponto mais importante é que este tipo de conhecimento muda a nossa percepção sobre nós mesmos. O que não é de todo mal...

Mas as ramificações são muito mais poderosas e amplas

sábado, 15 de agosto de 2009

Julgando um governo

Aqui no Brasi, como em diversas partes do mundo, temos uma certa dificuldade de caracterizarmos de modo objetivo o desempenho do governo.

Ao meu ver poderíamos utilizar um sistema de notas não muito diferente do que utilizamos em um post anterior.

Qual seriam os itens a serem analisados?

Acredito que cada um tem seu conjunto de características preferido, mas poderíamos tentar chegar a denominadores comuns. Algo do tipo: melhorou ou piorou?

Na minha opinião poderíamos dividir os itens em econômicos e sociais. E cada um dos itens, apesar de uma forma ou outras estarem correlacionados poderiam indicar como vemos cada item do governo.

Minha idéia é dividir os itens nestes agregadores principais. Assim teríamos

* Economia
- Desemprego
- Custos de Alimentação
- Custos de Moradia
- Poder de compra

* Sociais
- Segurança
- Educação
- Saúde
- Acesso a serviços (telefone, transporte, etc...)

Então teríamos as seguintes perguntas:

Com relação ao problema do(a) ...., como você caracterizaria sua situação em comparação com a de antes do início deste governo:
(a) Melhorou bastante
(b) Melhorou um pouco
(c) Não se alterou
(d) Piorou um pouco
(e) Piorou bastantes

Assim cada um dos itens teriam um pontuação associada (1 (e) a 5(a)). E assim poderíamos montar uma nota para o governo.

No caso os pesos seriam decididos baseados na experiência do que é importante para cada um. Mas eu começaria dando peso 0.25 para cada um dos itens e somando o resultado final.

Vamso a um exemplo - minha opinião:

* Economia
- Desemprego - 5
- Custos de Alimentação - 5
- Custos de Moradia - 4
- Poder de compra - 4

* Sociais
- Segurança - 2
- Educação - 4
- Saúde - 3
- Acesso a serviços (telefone, transporte, etc...) - 5

Assim teríamos:

0.25*(5+5+4+4)+0.25*(2+4+3+5) = 8

Isto resulta em uma nota 8 para o governo. Isto traz um pouco de peso às decisões individuais e tira um pouco de poder das decisões sem argumentos (baseadas no achismo)

sexta-feira, 14 de agosto de 2009

Uma hipótese diferente para o Mistério

No caso, quando a lua está mais próxima do horizonte temos uma pequena diferença em como a percebemos:

- O campo visual do olho é diferente na vertical e na horizontal.

Na vertical, o olho tem um campo visual de 60 graus para cima e 75 para baixo.

Na horizontal, o olho tem um campo visual de 60 graus em direção ao nariz e 100 em direção a tempora.

Isto dá 135 graus na vertical e 160 graus na horizontal.

Bem, e como isto atrapalha?

Aí eu tenho uma hipótese que precisa ser testada - que o tamanho da lua será determinado primariamente pelo seu campo visual (ou seja isto vale para objetos distantes, aonde o efeito de paralaxe não ajuda para determinar distância ou tamanho relativo - não sei se isto é verdade).

Quando a lua está no horizonte então seu campo de visão vertical seria de 60 graus, e a medida que ela fosse subindo então teria tamanhos diferentes.

Por exemplo:

- Ao nascer: campo 60 graus, se a lua tem meio grau de tamanho aparente isto corresponderia a 1/120 de tamanho vertical
- No zenite: campo de 135 graus, se a lua tem meio grau de tamanho aparente isto corresponderia a 1/270 de tamanho vertical

Dividindo os dois teríamos que ao nascer a lua aparentaria ter 2.25 seu tamanho normal.

No entanto, este tamanho iria gradualmente diminuindo até chegar ao tamanho esperado

-Em 10 graus de elevação, ela teria: 1.93 vezes o tamanho real
-Em 20 graus de elevação, ela teria: 1.69 vezes o tamanho real
-Em 30 graus de elevação, ela teria: 1.5 vezes o tamanho real
-Em 40 graus de elevação, ela teria: 1.35 vezes o tamanho real
-Em 50 graus de elevação, ela teria: 1.22 vezes o tamanho real
-Em 60 graus de elevação, ela teria: 1.13 vezes o tamanho real
-Em 70 graus de elevação, ela teria: 1.04 vezes o tamanho real
-Em 75 graus de elevação, ela teria: 1.0 vezes o tamanho real

Resta fazer o experimento e saber se isto funciona.

quinta-feira, 13 de agosto de 2009

Um mistério científico de verdade

Porque a lua é tão grande quando nasce em lua cheia?

Bem, a explicação que eu tinha era da atmosfera - devido a refração. Infelizmente tudo indica que esta explicação é errada. Mas nem por isto estou triste - estou curioso!

A explicação? Não se sabe...

O que se sabe é que é uma ilusão! O teste pode ser feito utilizando câmeras ou mesmo objetos de referência.

Mas vamos por partes: a minha percepção da lua varia de acordo com o tempo? Sim, devido a diferenças na distância de perigeu (363104 km ) e apogeu (405696 km). Como o raio da lua é de 1737.10 km então teremos que o ângulo pelo qual percebo a lua será:

Perigeu: 2*atan(1737.1/362104)= .5497190591 graus (33 minutos de arco)
Apogeu: 2*atan(1737.1/362104)= .4906525592 graus (29 minutos de arco)

Então temos uma variação de cerca de cerca de 12% no tamanho aparente.

Mas isto leva dias para acontecer.

Então não esta variação não explica a ilusão da lua. No caso esta variação é vista no nascente e nascente de corpos celestes (lua, sol, etc...)

Existem diversas teorias.

Então, quer ter seu nome conhecido na Science ou Nature?

Aqui está sua oportunidade: encontre a resposta do porque a lua parece maior no nascente e no poente comparada quando está no zênite (a pino)?

quarta-feira, 12 de agosto de 2009

Conspirações de verdade

Existe Teoria da Conspiração e Conspiração.

O problema é distinguir um caso do outro. E infelizmente, isto não é nada fácil...

A maioria dos argumentos contrários aos teóricos de conspiração é do tipo ad-hominem. O problema é que a rigor isto é um equívoco (mais apropriadamente uma falácia).

Então quando se diz:

"The average conspiracy theorist will argue with NASA, Nobel-prize winners and every expert in the world despite having fewer qualifications than the average fry cook."

Tradução livre: O teórico da conspiração médio irá discutir com a Nasa, ganhadores do prêmio Nobel e todos os especialistas do mundo a despeito ter menos qualificações do que o cozinheiro de lanchonete médio.

Isto é uma espécie de argumento ad-hominem - humorístico, mas ainda assim falacioso.

Um exemplo disto é o caso Watergate, aonde foram dois jornalistas que "passaram" a perna em todos os grandes conglomerados de mídia, jornalistas veteranos e editores calejados dos Estados Unidos e do mundo.

No entanto, ao mesmo tempo com Carl Sagan dizia: "Extraordinary Claims demand Extraordinary Proof" (Alegações extraordinárias necessitam de provas extraordinárias).

Eu volto a isto depois

terça-feira, 11 de agosto de 2009

Mais das estações

No post anterior eu omiti alguns detalhes que talvez valessem a pena ser descritos.

Em primeiro lugar, eu assumo que a emissividade da terra é causada primariamente pela energia recebida através da radiação solar (não é totalmente verdade).

Em segundo lugar, assumo que a potência é dada pela lei de Stephan-Boltzmann.

Então P=sigma*A*T^4

Então eu digo o seguinte: a temperatura média da terra é de 288 K (15C) - e um pouco diferente do que usei no post anterior

Então se a potência é a mesma no inverno e no verão temos:

A1*T1^4=A2*T2^4

Isto resulta em:

T1=T2*[(1-sin(phi))/(1+sin(phi))]^(1/4)

Como T1+T2 = 576 (média da temperatura)

Então para phi=23.7 temos:

T2=1.23*T1

Resolvendo o sistema:

T2=317.7 K (45 C) e T1=258.3 K (-15 C)

O problema é que o equacionamento ainda não está muito bom. As temperaturas parecem estar trocadas. Vou tentar ainda acertar estes detalhes posteriormente

***Correção***

A potência recebida no inverno é menor no hemisfério correspondente

Então

J*A1 (verão) > J*A2 (inverno)

A esta potência eu defino uma emissão equivalente J*A1=sigma*A*T1^4

E a mesma coisa no inverno J*A2 = sigma*A*T2^4

Dividindo de âmbos os lados:

A1/A2=(T1/T2)^4

E agora a coisa faz sentido:

2*A1=(1+sin(phi)) = 1.4
2*A2 = (1-sih(phi)) = 0.6

T1=T2*[(1+sin(phi))/(1-sin(phi))]^(1/4) = T1=1.23*T2

Como T1+T2= 588

Então T1=317 K (45 C) e T2=258 K (-15 C)

Faz mais sentido agora

As quatro estações

Quando eu estava no primeiro grau (ensino fundamental), a informação sobre como era possível o verão e o inverno era repassado como sendo causada pela mudança da distância entre a terra e o sol.

Humm, está é até fácil de provar que está errada.

A primeira pista que indica que esta explicação está errada é que o inverno e o verão ocorrem em tempos distintos no hemisfério norte e sul. De modo simples, quando é inverno no hemisfério norte é verão no sul e vice-versa.

A segunda pista é que o periélio e o afélio não são tão distintos assim. O periélio é de 147 milhões de quilômetros e o afélio é de 152 milhões de quilômetros. A excentricidade é de 0.017 (a de um círculo é zero). De dividirmos os dois raios teremos 1.034.

No caso a temperatura de um planeta se temos o aquecimento por radição será proporcional a raiz quadrada da distância.

Então a variação de temperatura comparando o inverno com verão seria de 1.017. E isto corresponde a 2% ou apenas 5 graus Celsius (300*(1-1/1.017)).

Então qual a razão das diferenças de temperatura entre inverno e verão?

São muitas, mas o principal parece ser o efeito da inclinação do eixo de rotação (23 graus aproximadamente). E a medida que o movimento de translação da terra ao redor do sol segue o eixo vai também rodando.

Então qual é o efeito da inclinação? De modo simples, a área de absorção aumenta ou diminui dependendo de como o eixo está orientado.

Essencialmente:

Se o eixo tivesse inclinação zero então a área do hemisfério norte seria igual a do hemisfério sul e igual a 2*pi*r^2

Como ha uma inclinação phi, então teremos que a área será de 2*(1+sin(phi))*r^2 para um hemisfério e 2*(1-sinh(phi))*r^2 para o outro hemisfério.

Comparando com a iluminação uniforme, veremos que a variação é de 1+sin(phi) e 1-sin(phi).

Substituindo os valores teremos 1.399 e 0.60125

O que significa uma variação de quase 40% na área. Tirando a raiz teremos 1.18 e 0.78 ( o que resulta em variações do tipo +54 a -66 C).

Bem, este é um modelo aproximado mas é possível ver que o maior efeito na definição das estações não é a distância até o sol

segunda-feira, 10 de agosto de 2009

Colombo e a terra plana

Um amigo meu me contou uma história interessante: não foi Colombo quem provou que a terra era esférica. A razão é que a maioria dos especialistas já sabiam disto.

E é verdade. Tanto na wikipedia quanto em outras fontes esta versão está bem documentada.

E francamente tenho razão para crer que é verdade. Primeiro porque desde Erastótenes que se tinha uma idéia da circunferência da terra e depois porque Posidonius e Bede também argumentam sobre o conceito da terra esférica.

Aliás o argumento é bem legal: Erastótenes sabia que no solstício de verão o sol ficava no zênite na cidade de Syene (Aswan). Mas ele sabia que naquele mesmo momento, o sol aparecida com um ângulo de sete graus e doze minutos em Alexandria (graças as sombras na cidade).

Então com geometria, ele sabia que a distancia entre as duas cidades era de r (raio da terra) multiplicado pelo ângulo. E de modo similar, sabendo quando era a distância d entre Alexandria e Syene ele poderia descobrir a circunferência da terra.

Como?

Ora a circunferência da terra é 2*pi*R = L. Ele sabia que a distância entre as duas cidades era d e sabia que o ângulo phi, logo: d=phi*R

Então L/d = 2*pi/phi

A beleza deste método é que phi pode ser obtido em qualquer sistema (radianos ou graus), o importante é que nos dados que ele tinha:

L = d * 360/(360/50) = 50*d

Portanto só o que ele precisava era de uma medição precisa da distância entre Alexandria e Syene. E está foi calculada em 5000 estádios, o que resulta em uma circunferência de 250000 estádios.

O problema claro é quanto valia um estádio, e isto ainda é debatido.

Mas talvez com um pouco de Google Earth isto se resolva - Alexandria está em 31° 12′ 0″ N, 29° 55′ 0″ E e Aswan em 24° 5′ 0″ N, 32° 56′ 0″ E. Pela régua isto dá 840,794 km (ou 840794 metros). Portanto um estádio é 168,16 metros

E com isto a circunferência da Terra por Erastótenes ficaria como 42039,7 km. O número atual é de 40075,02 km. O que não é de todo ruim como estimativa inicial.

Claro que há alguns problemas com esta história.

Mas de qualquer maneira, a medida da circunferência da terra era mais ou menos conhecida.

Voltando a Colombo...

Então já se sabia na época de Colombo que a terra era esférica. Então qual era o problema?

Bem Colombo acreditava que a distância para as Índias era menor do que se esperava. Essencialmente Colombo acreditava que o conjunto Europa+Africa+ Ásia ocupava não 50% da circunferência da terra, mas 62.5%, e portanto ele só precisaria atravessar um oceano de 37.5% da circunferência (o que corresponderia a 11250 km).

Mas para piorar, por uma série de prováveis erros de conta ele ainda achava que a a circunferência da terra era 62.5% do seu valor real.

Então os 11250 km passaram a ser 7031,25 km - o que a 4 nós (128 km/dia) dariam uma travessia de 55 dias e a 8 nós levaria a metade do tempo.

O que ele teve muita, mas muita sorte mesmo foi nos ventos alísios.

Voltando aos tempos aúreos da ciência

Cada vez mais parece-me que os exemplos de como as coisas eram realizadas no passado lembram o que acontece no presente.

Devo dizer que isto condiz um pouco com o que imagino ser o funcionamento da história.

O conceito de substituição de uma estrutura por outra me parece forçado. Penso que faz muito mais sentido a sobreposição da existência das diversas estruturas com preponderância de algumas de acordo com o tempo.

Em outras palavras, a menos de uma destruição completa teremos sempre parte do passado convivendo em maior ou menor grau com as pessoas.

Por isto imagino que a divisão de períodos ou etapas soa artificial - literalmente estabelecida por uma pessoa ou grupo de pessoas a partir de uma série de conceitos determinados (em conjunto ou individuais).

Portanto dizer que a venda da mão de obra é invenção do capitalismo é forçar a história a se conformar com a visão individual.

Caso em questão: temos exemplos de venda de mão de obra em todos os períodos históricos. A diferença me parece ser efetivamente a escala. Naturalmente, a venda de mão de obra podia ser realizada sem intervenção de dinheiro - poderia ser apenas uma troca com finalidades específicas ou não.

O que me leva a pensar que um contrato de trabalho deve também ter sido fundamental para estabelecer as atribuições na venda de mão de obra. Talvez uma troca na forma de patrocínio não tivesse exatamente estes termos de modo claro.

Muito possivelmente o mecenas tinha um poder muito razoável sobre quem patrocinava.

Imagino que estes tipos de relacionamentos possuiam grande insegurança para o patrocinado. Possivelmente, dado que em alguns casos este tipo de patrocinio envolvia algum posicionamento na corte do nobre - ou mesmo do monarca, então imagino que havia muita chance para problemas por causa de intrigas.

Aparentemente, este tipo de favorecimento é antigo com raízes no império romano. Mesmo assim dados alguns exemplos antigos não deixo de imaginar existisse em uma forma diferente no passado.

Certamente, não havia o mesmo ímpeto que hoje vemos. Acredito mesmo que parte do funcionamento da sociedade era outorgado pela autoridade em exercício (provavelmente na forma de cartas patentes).

Fico imaginando a questão dos grêmios ou corporações de ofício. Mesmo depois de tantos ataques no início do capitalismo ainda assim existem de uma forma ou outra nos dias de hoje.

Talvez isto seja prova que as estruturas não desaparecem inteiramente

domingo, 9 de agosto de 2009

Normalidade e normalidade

Não posso deixar de pensar na similaridade entre os conceitos de normalidade com as propriedades da curva normal.

Fico pensando se não existe um relacionamento.

Mas na realidade não existe. Pelo menos não de modo direto.

Ao mesmo tempo fico imaginando se não podemos definir o que é "ser normal" através de uma abordagem baseada em intervalos de confiança (e por este motivo do chamado desvio padrão).

Vamos supor que tenhamos um teste padrão. E este teste é aplicado a 100000 pessoas. Após sua aplicação, definimos a pontuação esperada como o valor médio da pontuação obtido nos testes (Ym).

Em seguida, encontramos os valores máximo (Ymax) e mínimo do teste (Ymin).

Então fazemos uma mudança de variáveis:

y=(Y-Ym)/(Ymax-Ymin)

Ficamos então com uma variável com

média: 0
valor máximo: (Ymax-Ym)/(Ymax-Ymin)
valor mínimo: (Ymin-Ym)/(Ymax-Ymin)

Então a partir disto podemos montar a distribuição associada.

O próximo passo é definir o que é "normal". Seriam 70%, 95% ou 99% dos casos?

Se calcularmos 99% dos casos teremos que 1% não serão "normais". Em 100000 isto equivale a 1000 pessoas.

Isto parece um tanto arbitrário não? E é mesmo.

Para evitar esta arbitrariedade é necessário definir "normalidade" por características externas a curva - ou por características que a população em estudo possui. Para tanto é necessário descobrir a relação entre o escore da população y e outra variável que possa ser estabelecida como parâmetro w.

A partir do cálculo da correlação entre y e w é possível estabelecer critérios mais independentes da normalidade.

Por exemplo, se a relação entre y e w é do tipo y=a*w, então o critério pode ser estabelecido a partir do valor de a.

Se y for normal com desvio 1, então w será normal com desvio 1/a. E isto será suficiente para definir o critério de normalidade em y.

Acho que vou tentar encontrar exemplos numéricos e voltarei a isto depois

A quem interessa a crise política?

O Brasil tem tido sua cota de crises recentes - todas inacreditavelmente mundanas.

Tivemos o caso com Renan Calheiros - você sabe o desfecho?

E agora temos o caso com José Sarney.

Não defendo nenhum deles, mas sou contrário ao tipo de ataque que está sendo realizado. E sou contrário por motivo bem simples: é autofágico!

Este tipo de ataque é o famoso das pedras contra as vidraças da casa - o atacante escolhe as vidraças e joga as pedras no tempo e forma que quiser.

O problema é que ninguém é vidraça para sempre e ninguém é atacante para sempre.

E aí, quando a bota vai para o outro pé a situação se inverte e o atacante vira atacado. E claro que vai ficar chorando pelos cantos acusando os envolvidos de estarem em um esquema muito similar ao que se encontra.

Hoje eu posso até dar nome aos bois: o atacante é um conjunto formado por elementos do PSDB (entre eles este senador) e da imprensa (entre eles esta jornalista - tratada no texto). A idéia é que neste caso a imprensa está matando dois coelhos com uma cajadada: atacando um possível adversário político por proxy e aumentando seu faturamento.

A estratégia é de uma maldade só: a notícia é dada na medida exata para prejudicar uma pessoa em particular, e sempre em doses pequenas o suficiente para não exaurir a fonte. E os políticos utilizam esta notícia para atacar a pessoa em particular sem piedade.

Por vezes, o político que ataca é quem informa a notícia aos elementos da imprensa. Isto é comum se tivermos uma série de reportagens do mesmo veículo sobre o assunto - neste caso temos muito provavelmente uma fonte interna.

Este tipo de comportamento é lamentavelmente comum no Brasil. Temos deputados fazendo isto, senadores fazendo isto, procuradores fazendo isto...

Então será que terei de ser eu a ligar os pontos entre o jornalista e o atacante?

Se tiver de fazer isto, tenho de fazer em todos os casos e não apenas neste aqui...

Humm, isto é muito trabalho

sábado, 8 de agosto de 2009

Proposição e Oposição

Por sugestão do meu primo procurei informações sobre as diversas prorrogações da CPMF e qual é a minha surpresa (que não é surpresa)?

Na votação de 2002, os seguintes senadores (dentro muitos) foram favoráveis à prorrogação:

2002 - SIM

Álvaro Dias (PSDB-PR)
Jonas Pinheiro (DEM-MT)
José Agripino (DEM-RN)
Maria do Carmo Alves (DEM-SE)
Romeu Tuma (PTB-SP)

Já em 2007, os seguintes senadores foram contrários à prorrogação:

2007 - NÃO

Adelmir Santana (DEM-DF)
Álvaro Dias (PSDB-PR)
Antonio Carlos Junior (DEM-BA)
Arthur Virgílio (PSDB-AM)
César Borges (PR-BA)
Cícero Lucena (PSDB-PB)
Demóstenes Torres (DEM-GO)
Eduardo Azeredo (PSDB-MG)
Efraim Morais (DEM-PB)
Eliseu Rezende (DEM-MG)
Expedito Junior (PR-RO)
Flexa Ribeiro (PSDB-PA)
Geraldo Mesquita (PMDB-AC)
Heráclito Fortes (DEM-PI)
Jarbas Vasconcellos (PMDB-PE)
Jayme Campos (DEM-MT)
João Tenório (PSDB-AL)
Jonas Pinheiro (DEM-MT)
José Agripino (DEM-RN)
José Nery (PSOL-PA)
Kátia Abreu (DEM-TO)
Lúcia Vânia (PSDB-GO)
Mão Santa (PMDB-PI)
Marco Maciel (DEM-PE)
Marconi Perillo (PSDB-GO)
Maria do Carmo Alves (DEM-SE)
Mario Couto (PSDB-PA)
Marisa Serrano (PSDB-MS)
Papaléo Paes (PSDB-AP)
Raimundo Colombo (DEM-SC)
Romeu Tuma (PTB-SP)
Rosalba Ciarlini (DEM-RN)
Sérgio Guerra (PSDB-PE)
Tasso Jereissati (PSDB-CE)

As diferenças entre 2002 e 2007 são causadas essencialmente pelo fato que muitos dos listados em 2007 não estavam eleitos em 2002.

Isto é política

sexta-feira, 7 de agosto de 2009

Nos anos áureos da ciência

Estou envolvido em um debate no Orkut que descambou para a questão que o capitalismo transforma tudo em mercadoria e que isto teria pervertido a ciência e a arte.

Ora, é verdade que o capitalismo transformou tudo em mercadoria. Isto é simplesmente afirmar um pedaço da definição do mesmo.

Mas a questão é se já existiu uma época aonde se fazia "ciência pela ciência" ou "arte pela arte".

Bem, olhando um pouco o passado a resposta é não. E de modo categórico.

Muitos falam do exemplo dos filósofos gregos que praticavam o pensamento livre sem restrições ligadas ao material.

Bem, eles também faziam isto. Também...

Mas como todos os seres humanos, eles precisam se sustentar. E não adianta pensar nos escravos, pois eles não nascem em árvores - são geralmente capturados em guerras de conquista. E aí caímos de novo no problema do sustento (exército, treinamento, impostos e por fim renda de alguma forma).

Certamente existiam os muito ricos. Mas o caso é que não são todos.

Aristóteles, o grande filósofo foi tutor de Alexandre da Macedônia (o grande). E certamente foi recompensado por isto. Mesmo o seu mestre, Platão, muito provavelmente teve seus serviços requisitados por outros monarcas.

Mesmo a Academia de Platão eventualmente passou a cobrar de seus membros.

No entanto imagino que as relações de troca eram bem menos comerciais do que temos hoje. Neste ponto posso estar muito equivocado, apesar da evidência estar ao meu favor, mas creio que a proximidade com nobreza e realeza - juntamente com os diversos benefícios que isto trazia - era o que funcionava como recompensa.

Vejam, hoje dinheiro compra praticamente tudo, mas nem sempre foi assim. A influência e a proximidade eram "mercadorias valiosas" quando se vivia naqueles tempos. Não era tanto a questão de quanto se tinha mas qual era a sua influência.

Se observarmos escritos de Maquiavel e mesmo a carta de Pero Vaz de Caminha veremos exatamente este tipo de interesse - não a compensação monetária, mas uma vida "boa".

É um modo interessante de ver as coisas, vou tentar voltar a este ponto em post futuros

quinta-feira, 6 de agosto de 2009

Pânico na Pandemia?

Com o adiamento do início das aulas na UnB, fiquei um pouco preocupado com os rumos que estamos tomando como nação.

Não há nada de mal em prevenir.

Mas aumentar um problema fora de proporção pode causar males inacreditáveis.

O conceito de adiar as aulas é consistente com a idéia que com a gripe é necessário estabelecer um período de quarentena para ter certeza se existem possíveis infectados ou não.

Mas meu receio é que isto esta criando um momento desnecessário.

Se este momento virar pânico, então qualquer espirro ou tosse pode levar a uma série de consequências perfeitamente evitáveis.

Se isto se tornar verdade, podemos ter um aumento na taxa de mortalidade por culpa do pânico

E quem alimentou este pânico?

quarta-feira, 5 de agosto de 2009

Pode ser uma normal

A questão de exatamente porque deveria ser uma normal no tempo é que me deixa curioso.

Mas se for uma normal existem algumas vantagens. A fórmula de uma normal é:

p(x) = \frac{1}{\sigma \sqrt{2\pi}} \exp\left(-\frac{(x-\mu)^2}{2\sigma^2}\right),
A integral desta função é justamente 1. Mas ao conhecermos o número total de casos podemos dizer que o pico se dá como:

N/(sigma*sqrt(2*pi)).

Portanto é possível saber o desvio padrão - ou como a curva é aberta ou fechada.

Por exemplo, se temos um total de 10.000 casos por 100.000 habitantes e um pico de incidência de 200 casos a cada 100.000 habitantes então:

N=0.1 e 0.1/(sigma*sqrt(2*pi)) =0.002

Logo sigma = 0.1/(0.002*2.51) = 19.92 semanas - em torno de 20 semanas de desvio padrão. Isto mais ou menos significa que em 40 semanas teremos 95% dos casos.

Já se forem 1.000 casos a cada 100.000 habitantes, com um pico de 200 casos por 100.000 habitantes então este número caí para 1.992 semanas - 2 semanas de desvio. Isto significa que em 4 semanas teremos 95% dos casos.

Uma característica deste modelo é que infecções com maior taxa de incidência e mesmo desvio precisam necessariamente de maior número de incidência total. Mas se mantivermos a mesma taxa de incidência, então a razão número total sobre desvio padrão tem de se manter constante.

Pelos dados apresentados neste texto, parece que o desvio é aproximadamente constante, mas com uma certa periodicidade um pouco difícil de identificar.

Mas temos outros site que mostra que o desvio não é constante, mas diminui quando o pico da taxa de incidência aumenta.

De qualquer modo, fico curioso em saber porque temos algo próximo de uma normal (ou secante hiperbólica).

Faz sentido pensar em um "mercado" de doentes potenciais. Mas a lógica está certa?

Em uma doença com 100% de contágio teríamos no início totais pequenos, mas a medida que o tempo fosse passando estes números iriam subir.

Em um determinado ponto (metade da população), os números de taxa de incidência teriam de descer novamente, já que mais da metade do "mercado" já estaria tomado.

E como o "mercado disponível" continuaria a diminuir então a taxa também iria diminuir.

É algo a se pensar

terça-feira, 4 de agosto de 2009

Gripe Suína e Contágio

Vejo com uma certa preocupação o avanço da gripe suína, mas ao mesmo tempo fico imaginando uma situação como do romance de Richard Matheson - Eu sou a Lenda.

Na realidade temos a seguinte situação: incubação, contágio e letalidade.

No período de incubação, o paciente não apresenta os sintomas. No período de contágio, o paciente pode ou não apresentar os sintomas. E a questão da letalidade é relacionada justamente com o número de pessoas que falecem devido a doença.

Aqui é que as coisas se complicam.

Primeiro temos de supor que a doença irá manifestar sintomas. Se a mesma não fizer isto então temos um pepino sem tamanho. Então a primeira suposição é que a doença irá manifestar sintomas.

Ok, mas quando? Bem só pode ser após o período de incubação (até por uma questão de definição). Mas e o de contágio? Ah, este pode sim começar mesmo durante o período de incubação. Então temos ainda um período de estado e outro de resolução.

Então se observarmos temos um intervalo de tempo entre a doença ser adquirida e a possibilidade de ser retransmitida.

Então, temos:

- No tempo 0, a doença é adquirida
- Após o tempo Ti, ela se manifesta
- Um pouco antes do tempo Ti, ela passa a poder ser retransmitida durante um tempo Tc.

Podemos dizer que Ti-Tx+Tc é o período durante o qual a doença pode ser transmitida. Uma vez que a doença seja de preocupação suficiente para que as pessoas contagiadas sejam isoladas temos que na realidade o problema é justamente o intervalo de tempo Ti-Tx que pode ser responsabilizado por contágio.

Então neste caso o problema é determinar quantas pessoas podem ser atingidas neste caso.

Aí temos de verificar a taxa de contágio. Isto significa, em situações comuns quantas pessoas expostas irão eventualmente adquirir a doença. Esta taxa não costuma ser de 100% (senão não teríamos médicos ou assistentes).

Vamos dizer que seja de 10%, 50% e 90%

Então quantas pessoas encontramos no dia a dia? Eu imagino que em uma cidade média algo na vizinhança de 10 a 50 pessoas. Já em uma cidade grande este número poderia estar na casa das centenas dependendo do caso.

Vamos partir do pressuposto que sejam 50 pessoas em cidades médias e 25o pessoas em cidades grandes. Então temos como variável o número de pessoas que se encontra diariamente.

Ah, mas a maioria destas pessoas vemos de modo repetido. Então vamos dizer que no primeiro dia encontramos 50 pessoas, no segundo 25, no terceiro 12 e assim por diante.

Então, considerando a aproximação de séries infinitas temos que no período de contágio teremos o dobro do número no primeiro dia - independente da duração efetiva do mesmo (basta ser de mais de 3 dias).

Então nas grande cidades teremos que 1 pessoa poderia infectar até 500 pessoas e nas cidades médias 1 pessoa poderia infectar até 50 pessoas.

Entra em cena a taxa de contágio. Se a mesma for de 10% então teremos 1 pessoa infecta 5 nas cidades médias e 1 pessoa infecta 50 nas cidades grandes.

Teríamos uma propagação exponencial a partir daí (5 infectam 25 que infectam 125 e assim por diante).

O problema é que não é isto que se verifica.

O que está errado? Bom eu creio que o modelo de propagação está muito simplificado. Se eu tiver que supor diria que o modelo deve ser similar a já conhecida equação logística.

dN/dt=a*N*(K-N)

A taxa de incidência acumulada (N) deve seguir algo como esta equação, já a taxa de incidência (dN/dt) pode seguir uma distribuição como a secante hiperbólica.

Olhando dois artigos (aqui e aqui) fica-se com a impressão que realmente o que acontece é algo similar.

E isto leva a questão: como podemos prever o comportamento da doença?

Primeiro temos taxas de incidências crescentes, depois um pico e por fim taxas de incidências declinantes. Se a doença seguir uma distribuição simétrica então o número total de taxas de incidência será exatamente o dobro do acumulado até o pico.

No caso da gripe suína? Difícil dizer, mas podemos usar outros dados da gripe normal.

Neste caso tivemos um máximo de 300 por 100.000 habitantes (0.3%). Mas a duração em torno de 20 semanas (sendo o pico concentrado em uma região de 10 semanas).

Como um chute é tão bom quanto outro, eu diria que a gripe terá uma taxa de incidência de:

3*10+1.5*10 = 45% (máximo) - e isto terá uma duração de umas 20 semanas ou uns 5 meses. Dado que começou no Brasil em maio ou julho teremos de esperar até outubro ou novembro para ficarmos bem aliviados

segunda-feira, 3 de agosto de 2009

Avaliando um político

A questão da escolha de representante é sempre uma tarefa espinhosa.

Existem aqueles que preferem votar em branco ou nulo a votar em um político que não os represente. E existem os que a partir dos perfis dos candidatos disponíveis decidem com base nesta disponibilidade quais se adequam mais como representantes.

Acredito que exista ainda outra maneira. Um pouco mais complicada, mas certamente mais representativa.

Minha proposta é primeiro conhecer a si mesmo e depois enquadrar os candidatos dentro do perfil que cada um tem delimitado. Naturalmente, devido a minha afinidade matemática, prefiro utilizar números do que impressões.

Então no primeiro passo temos que compilar uma lista de interesse, preferencialmente descorrelacionada. Assim podemos usar cada item da lista para fornecermos um número que irá caracterizar como nos posicionamos com relação aquele item.

Exemplo: violência

a - ponto muito importante
b - ponto razoavelmente importante
c - ponto neutro
d - ponto de pouca importância
e - ponto sem importância

É claro que não iremos ter candidatos favoráveis a violência, mas o conteúdo programático do mesmo irá definir mais ou menos nossa posição no mesmo.

Então no caso acima temos de caracterizar cada um dos itens por pontos:

a = 1.0, b=0.5, c=0, d=-0.5, e=-1.0

Este será o peso que daremos ao avaliar o conjunto de medidas anunciadas no programa. Então precisamos de um exemplo para mostrar como usar a ferramenta. Vamos utilizar aqui o programa do governo de Pernambuco:

"Todos estes eixos estratégicos pontuados terão suas ações implementadas por meio da
criação de três programas específicos:

1. Programa Delegacias Inteligentes
Consiste na reestruturação das rotinas de trabalho da Polícia Civil:
a. Tripartição das funções elementares: atendentes; administradores; policiais inteiramente dedicados à investigação;
b. Redefinição das rotinas policiais;
c. Informatização das rotinas redefinidas: criação de softwares originais, criação de redes e sistemas virtuais de informação; e
d. Incorporação ao espaço da delegacia de instituições afins: defensoria pública; ministério público; juizado especial cível, etc.

2. Programa Segurança da Mulher
Conjunto de ações preventivas, de repressão qualificada e de apoio à mulher vítima de violência doméstica ou de gênero:
a. Criação da Comissão de Segurança da Mulher, com o propósito de apoiar a definição e na implementação das políticas orientadas para a segurança da mulher;
b. Elaboração de projetos de implantação de casas-abrigo e de Delegaciasda Mulher;
c. Desenvolvimento de programas de capacitação dos profissionais de segurança pública, bem como daqueles que atuarão nas casas-abrigo;
d. Construção de Casas Abrigo.

3. Programa Segurança das Minorias
Opera como centro irradiador de políticas para a área de segurança, incluindo ações de treinamento e capacitação junto às Polícias Civil e Militar e funciona ainda como canal de permanente diálogo com representantes das comunidades negra, homossexual, terceira idade, entre outras.
a. Criação de Centros de Referência para atendimento a segmentos da população tradicionalmente excluídos das políticas de segurança e alvos de discriminação ou desatenção pela sociedade em geral."

Neste caso teremos de ver como cada um destes itens irá afetar sua percepção de segurança. Assim vamos um de cada vez:

Com relação ao aumento da segurança, classifique cada uma das ações a seguir segundo: importante, razoavelmente importante, neutra, pouco importante ou sem importância:

1. Tripartição das funções elementares: atendentes; administradores; policiais inteiramente dedicados à investigação;

2. Redefinição das rotinas policiais;

3. Informatização das rotinas redefinidas: criação de softwares originais, criação de redes e sistemas virtuais de informação; e

4. Incorporação ao espaço da delegacia de instituições afins: defensoria pública; ministério público; juizado especial cível, etc.

5. Criação da Comissão de Segurança da Mulher, com o propósito de apoiar a definição e na implementação das políticas orientadas para a segurança da mulher;

6. Elaboração de projetos de implantação de casas-abrigo e de Delegacias da Mulher;

7. Desenvolvimento de programas de capacitação dos profissionais de segurança pública, bem como daqueles que atuarão nas casas-abrigo;

8. Construção de Casas Abrigo.

9. Criação de Centros de Referência para atendimento a segmentos da população tradicionalmente excluídos das políticas de segurança e alvos de discriminação ou desatenção pela sociedade em geral.

Por exemplo, se na sua opinião a construção de casas abrigo é um ponto neutro, então designa-se a este ponto o peso 0, se for importante o peso 1 e se não for importante o peso -1.

Assim teremos um conjunto de 9 pesos (p1 até p9).

O que fazemos a seguir é realizar o produto escalar do conjunto de pesos com os do programa. Mas para todos os efeitos práticos isto é igual a somar os pesos de p1 a p9.

Então teremos um número que relaciona sua percepção com o programa do candidato. Para termos a percepção completa temos de multiplicar pelo peso do item em questão segurança e comparar com os resultados dos demais candidatos.

Vamos dar um exemplo numérico, mas completamente fictício:

Eu considero que violência é um problema importante e por este motivo dou peso 1. Com relação ao programa considero os itens 1, 2, 3 e 4 muito importantes, o item 5 e 6 de razoável importância, o item 7 e 8 neutros e o item 9 de pouca importância.

Então terei:

=1*(1+1+1+1+0.5+0.5+0+0-0.5) = 4.5

O duro é fazer isto para todos os pontos do programa de governo

domingo, 2 de agosto de 2009

O que causa uma notícia

Pensando desta forma imagino que um evento tal que os envolvidos em sua divulgação considerem que seja interessante que o mesmo seja adequadamente divulgado.

Portanto meu lado de teoria da conspiração está interessado em tentar descobrir porque alguns fatos são expostos na mídia a exaustão, com o óbvio propósito que causar alguma reação.

Então para tanto temos o Google notícias. Ainda está longe de ser perfeito pois muitas datas saem misturadas, mas ainda assim é possível ver uma certa progressão no que está acontecendo:

Em janeiro de 2009, tivemos 1280 notícias sobre Sarney - sendo que a maioria tratava de sua candidatura a presidência do senado.

Em fevereiro de 2009, tivemos 1890 notícias - sendo essencialmente concentradas na vitória de Sarney sobre Tião Viana

Em março de 2009, tivemos 2640 notícias já sobre a égide da crise no Senado. A maioria é relativa aos esforços de desarmar a crise do Senado por retirada de alguns dos protagonistas de cena. Mas ainda pairam algumas nuvens negras sobre ele.

Mas o interessante é o seguinte. A notícia de 21 de março de 2009 fala que já estão falando do senador e da família a "um mês e meio".

Então é possível que a avalanche já tivesse começado.

Se posso dar uma idéia talvez Sarney já estivesse sob ataque com a questão da eleição de sua filha (e cassação de Jackson Lago - motivo razoável), ou mesmo em relação a eleição de Tião Viana (contra o qual concorreu a presidência do senado), ou mesmo possivelmente alguém que se sentiu traído com relação a atuação de Sarney com relação ao episódio das diretorias do Senado (quem sabe o próprio Agaciel Maia?).

O que parece é que Sarney acumulou inimigos com muita velocidade (quase a taxa de 1 grande inimigo por mês) e fez isto sob ataque - o que possibilitou que com cada novo inimigo cria-se uma nova frente de batalha.

Então a lição importante disto é: não aumente o número de inimigos enquanto luta as batalhas.