Basicamente existem 2 definições de informação: a informação
de kolmogorov e a de Shannon.
A informação de kolmogorov mede a informação numa sequência
de símbolos e corresponde á menor descrição dessa sequência. Uma duplicação com
divergência além de dar origem a um gene novo, pode aumentar o tamanho da
descrição da sequência do genoma, assim como a tetraploidia nas plantas.
Temos ainda a teoria da informação de Shannon, que é uma
teoria probabilística. Shannon equacionou informação com diminuição na
incerteza: I = -log2 (p), onde p é uma probabilidade. Esta definição é
normalmente usada pelo William Dembski e é de notar que normalmente os seus
cálculos baseiam-se em pressupostos falsos relativamente à evolução por
selecção natural (por exemplo, no caso do flagelo bacteriano que Michael Behe
afirma não poder ter evoluído desse modo), nunca tendo realizado um cálculo
da probabilidade com significado para a teoria da evolução como ela é proposta.
Um bom modo de aumentar a informação de acordo com esta
definição é a selecção natural e isto foi demonstrado por Thomas D. Schneider
num artigo publicado em 2000 (1), relativamente aos locais de ligação de uma
proteína artificial, usando o programa ev para simular o processo evolutivo que
ocorre naturalmente a nível genético.
Referências:
Nota: o artigo em questão foi publicado após revisão de
pares – isto é importante e é algo que os criacionistas desprezam.
Sem comentários:
Enviar um comentário