A base computacional da vida: Como a vida e a morte brotam da desordem

https://d2r55xnwy6nx47.cloudfront.net/uploads/2017/01/Glitch_birds_2K1.gif

Por muito tempo, cientistas acreditavam que a vida obedecia o seu próprio conjunto de regras. Mas, como sistemas simples mostram sinais de comportamento parecido com o comportamento de seres vivos, os cientistas estão discutindo se essa aparente complexidade é toda consequência da termodinâmica.

Qual é a diferença entre Física e Biologia? Pegue uma bola de golfe e uma bala de canhão e solte-os da Torre de Pisa. As leis da física permitem prever suas trajetórias com a maior precisão possível. Agora faça o mesmo experimento novamente, mas substitua a bala de canhão por um pombo.
Os sistemas biológicos não desafiam as leis físicas, é claro mas tampouco parecem ser previstos por ela. Em contraste, eles são direcionados por objetivos: sobreviver e se reproduzir. Podemos dizer que eles têm um propósito ou o que os filósofos tradicionalmente chamam de teleonomia que orienta seu comportamento.
Da mesma forma, a física agora nos permite prever, a partir do estado do universo, um bilionésimo de segundo após o Big Bang, o que parece hoje. Mas ninguém imagina que a aparência das primeiras células primitivas na Terra levou previsivelmente à raça humana. As leis, ao que parece, não ditam o curso da evolução.
A teleonomia e a contingência histórica da biologia, disse o biólogo evolucionista Ernst Mayr, a tornam única entre as ciências. Ambas as características derivam talvez do único princípio orientador geral da biologia: a evolução. Depende do acaso e da aleatoriedade, mas a seleção natural lhe dá a aparência de intenção e propósito. Os animais são atraídos para a água não por alguma atração magnética, mas por causa de seu instinto, sua intenção, para sobreviver. As pernas servem ao propósito de, entre outras coisas, nos levar para a água.
Mayr afirmou que essas características tornam a biologia excepcional uma lei em si. Mas desenvolvimentos recentes em física do não-equilíbrio, ciência de sistemas complexos e teoria da informação estão desafiando essa visão.
Quando consideramos os seres vivos como agentes que realizam uma computação coletando e armazenando informações sobre um ambiente imprevisível as capacidades e considerações como replicação, adaptação, ação, propósito e significado podem ser entendidas como decorrentes não da improvisação evolucionária, mas como inevitáveis corolários das leis física. Em outras palavras, parece haver uma espécie de física das coisas fazendo coisas e evoluindo para fazer coisas. O significado e a intenção pensados para serem as características definidoras dos sistemas vivos podem então emergir naturalmente através das leis da termodinâmica e da mecânica estatística.
Em novembro passado, físicos, matemáticos e cientistas da computação reuniram-se com biólogos evolucionistas e moleculares para falar e algumas vezes argumentar sobre essas ideias em uma oficina do Instituto Santa Fé, no Novo México, a meca da ciência dos "sistemas complexos". Eles perguntaram: quão especial (ou não) é a biologia?
Não é de surpreender que não haja consenso. Mas uma mensagem que surgiu muito claramente foi que, se há um tipo de física por trás da teleonomia e agência biológica, isso tem algo a ver com o mesmo conceito que parece ter se instalado no coração dos fundamentos da própria física: a informação.

Desordem e o Demônio de Maxwell

A primeira tentativa de trazer informação e intenção para as leis da termodinâmica ocorreu em meados do século XIX, quando o cientista escocês James Clerk Maxwell trabalhava em mecânica estatística. Maxwell mostrou como a introdução desses dois ingredientes tornou possível fazer coisas que a termodinâmica considerava impossíveis.
Maxwell já havia mostrado como as relações matemáticas previsíveis e confiáveis entre as propriedades de um gás pressão, volume e temperatura poderiam ser derivadas dos movimentos aleatórios e incognoscíveis de inúmeras moléculas balançando freneticamente com energia térmica. Em outras palavras, a termodinâmica a nova ciência do fluxo do calor, que uniu propriedades de grande escala da matéria como pressão e temperatura foi o resultado da mecânica estatística na escala microscópica de moléculas e átomos.
De acordo com a termodinâmica, a capacidade de extrair trabalho útil dos recursos energéticos do universo está sempre diminuindo. Pacotes de energia estão diminuindo, as concentrações de calor estão sendo suavizadas. Em todo processo físico, alguma energia é inevitavelmente dissipada como calor inútil, perdida entre os movimentos aleatórios das moléculas. Essa aleatoriedade é igualada à quantidade termodinâmica chamada entropia uma medida de desordem que está sempre aumentando. Essa é a segunda lei da termodinâmica. Eventualmente, todo o universo será reduzido a uma confusão chata e uniforme: um estado de equilíbrio, em que a entropia é maximizada e nada de significativo jamais acontecerá novamente.
Estamos realmente condenados a esse destino triste? Maxwell relutou em acreditar e, em 1867, decidiu, segundo ele, "descobrir um buraco" na segunda lei. Seu objetivo era começar com uma caixa desordenada de moléculas aleatoriamente agitadas, depois separar as moléculas rápidas das lentas, reduzindo a entropia no processo.
Imagine alguma criaturinha o físico William Thomson mais tarde a chamou, para o desânimo de Maxwell, de demônio que pode ver cada molécula individual na caixa. O demônio separa a caixa em dois compartimentos, com uma porta de correr na parede entre eles. Toda vez que ele vê uma molécula particularmente energética se aproximando da porta do compartimento da mão direita, ele a abre para deixá-la passar. E toda vez que uma molécula lenta e “fria” se aproxima da esquerda, ele deixa passar também. Eventualmente, ele tem um compartimento de gás frio à direita e gás quente à esquerda: um reservatório de calor que pode ser usado para fazer trabalho.
Isso só é possível por dois motivos. Primeiro, o demônio tem mais informações do que nós: ele pode ver todas as moléculas individualmente, em vez de apenas médias estatísticas. E segundo, tem intenção: um plano para separar o quente do frio. Ao explorar seu conhecimento com intenção, ele pode desafiar as leis da termodinâmica.
Pelo menos, assim parecia. Levou cem anos para entender por que o demônio de Maxwell não pode de fato derrotar a segunda lei e evitar o deslizamento inexorável em direção ao equilíbrio mortal e universal. E a razão mostra que existe uma conexão profunda entre a termodinâmica e o processamento da informação ou, em outras palavras, computação. O físico alemão-americano Rolf Landauer mostrou que, mesmo que o demônio consiga coletar informações e mover a porta (sem atrito) sem custo de energia, uma penalidade deve ser paga. Como não pode ter memória ilimitada de todos os movimentos moleculares, ocasionalmente deve limpar sua memória esqueça o que viu e comece de novo antes que possa continuar colhendo energia. Esse ato de eliminação de informações tem um preço inevitável: dissipa energia e, portanto, aumenta a entropia. Todos os ganhos contra a segunda lei feita pelo trabalho manual do demônio são cancelados pelo “limite de Landauer”: o custo finito do apagamento de informações (ou, mais geralmente, da conversão de informações de uma forma para outra).
Organismos vivos parecem um pouco como o demônio de Maxwell. Enquanto um copo cheio de reagentes químicos acabará por gastar sua energia e estagnar, os sistemas vivos têm evitado coletivamente o estado de equilíbrio sem vida desde a origem da vida, há cerca de três bilhões e meio de anos. Eles coletam energia do ambiente ao redor para sustentar esse estado de não-equilíbrio, e o fazem com “intenção”. Até as bactérias simples se movem com “propósito” em direção a fontes de calor e nutrição. Em seu livro de 1944, O que é vida?, o físico Erwin Schrödinger expressou isso dizendo que os organismos vivos se alimentam de “entropia negativa”.
Eles conseguem isso, disse Schrödinger, capturando e armazenando informações. Algumas dessas informações são codificadas em seus genes e passadas de uma geração para a seguinte: um conjunto de instruções para colher a entropia negativa. Schrödinger não sabia onde a informação é mantida ou como ela é codificada, mas sua intuição de que está escrita no que chamou de "cristal aperiódico" inspirou Francis Crick, ele mesmo formado como físico, e James Watson quando em 1953 eles descobriram como a informação genética pode ser codificada na estrutura molecular do DNA.
Um genoma, portanto, é pelo menos em parte um registro do conhecimento útil que permitiu aos ancestrais de um organismo desde o passado distante sobreviver em nosso planeta. De acordo com David Wolpert, matemático e físico do Instituto de Santa Fé que convocou o seminário recente, e seu colega Artemy Kolchinsky, o ponto chave é que organismos bem adaptados estão correlacionados com esse ambiente. Se uma bactéria nada de forma confiável em direção à esquerda ou à direita, quando há uma fonte de alimento nessa direção, ela está melhor adaptada e florescerá mais do que uma que nada em direções aleatórias e, assim, encontra a comida por acaso. Uma correlação entre o estado do organismo e o do ambiente implica compartilhar informações em comum. Wolpert e Kolchinsky dizem que é essa informação que ajuda o organismo a ficar fora do equilíbrio porque, como o demônio de Maxwell, ele pode adaptar seu comportamento para extrair o trabalho das flutuações em seu entorno. Se não adquirisse essa informação, o organismo gradualmente voltaria ao equilíbrio: ele morreria.
Visto dessa maneira, a vida pode ser considerada como uma computação que visa otimizar o armazenamento e o uso de informações significativas. E a vida acaba sendo extremamente boa nisso. A resolução de Landauer do enigma do demônio de Maxwell estabeleceu um limite absoluto mais baixo para a quantidade de energia que uma computação de memória finita requer: a saber, o custo energético do esquecimento. Os melhores computadores de hoje consomem muito mais energia do que isso, normalmente consumindo e dissipando mais de um milhão de vezes. Mas, de acordo com Wolpert, “uma estimativa muito conservadora da eficiência termodinâmica do cálculo total feito por uma célula é que ela é apenas 10 ou mais vezes maior do que o limite de Landauer”.
A implicação, ele disse, é que “a seleção natural tem se preocupado enormemente em minimizar o custo termodinâmico da computação. Ela fará todo o possível para reduzir a quantidade total de computação que uma célula deve realizar. ”Em outras palavras, a biologia (possivelmente com exceção de nós mesmos) parece tomar muito cuidado para não pensar demais no problema da sobrevivência. Essa questão dos custos e benefícios da computação no caminho da vida, disse ele, tem sido amplamente negligenciada na biologia até agora.

Darwinismo inanimado

Assim, os organismos vivos podem ser considerados como entidades que se sintonizam com o meio ambiente, usando informações para coletar energia e escapar do equilíbrio. Claro, é um pouco pomposo pensar desta forma. Mas observe que nada foi dito sobre os genes e a evolução, na qual Mayr, como muitos biólogos, assumiu que a intenção e o propósito biológico dependem.
Até que ponto esta imagem pode nos levar? Os genes aperfeiçoados pela seleção natural são indubitavelmente centrais para a biologia. Mas será que a evolução pela seleção natural é, em si mesma, apenas um caso particular de um imperativo mais geral em relação à função e ao aparente propósito que existe no universo puramente físico? Está começando a parecer assim.
Adaptação tem sido vista como a marca da evolução darwiniana. Mas Jeremy England, do Instituto de Tecnologia de Massachusetts, argumentou que a adaptação ao meio ambiente pode acontecer mesmo em sistemas complexos e não vivos.
A adaptação aqui tem um significado mais específico do que a imagem darwiniana usual de um organismo bem equipado para a sobrevivência. Uma dificuldade com a visão darwiniana é que não há como definir um organismo bem adaptado, exceto em retrospecto. Os "mais aptos" são aqueles que se revelaram melhores na sobrevivência e na replicação, mas você não pode prever o que a adequação implica. As baleias e o plâncton estão bem adaptados à vida marinha, mas de maneiras que têm pouca relação óbvia uns com os outros.
A definição de "adaptação" de England está mais próxima da de Schrödinger e, na verdade, da de Maxwell: uma entidade bem adaptada pode absorver energia de maneira eficiente de um ambiente imprevisível e flutuante. É como a pessoa que mantém o equilíbrio em um navio de arremesso, enquanto outros caem porque é melhor se ajustar às flutuações do convés. Usando os conceitos e métodos da mecânica estatística em um ambiente de não-equilíbrio, England e seus colegas argumentam que esses sistemas bem adaptados são os que absorvem e dissipam a energia do ambiente, gerando entropia no processo.
Sistemas complexos tendem a se adaptar a esses estados bem adaptados com facilidade surpreendente, disse a England: “A matéria com flutuação térmica, muitas vezes, é espancada espontaneamente em formas que são boas em absorver o trabalho do ambiente variável no tempo”.
Não há nada neste processo que envolva a acomodação gradual ao meio através dos mecanismos darwinianos de replicação, mutação e herança de traços. Não há replicação. “O que é empolgante nisso é que isso significa que quando damos uma explicação física das origens de algumas das estruturas de aparência adaptada que vemos, elas não necessariamente têm que ter pais no sentido biológico usual”, disse England. “Você pode explicar a adaptação evolucionária usando a termodinâmica, mesmo em casos intrigantes onde não há auto-replicadores e a lógica darwiniana se rompe” desde que o sistema em questão seja complexo, versátil e sensível o suficiente para responder às flutuações em seu ambiente.
Mas também não há conflito entre adaptação física e darwiniana. De fato, este último pode ser visto como um caso particular do primeiro. Se a replicação estiver presente, a seleção natural torna-se o caminho pelo qual os sistemas adquirem a capacidade de absorver trabalho a entropia negativa de Schrödingerdo ambiente. A auto-replicação é, na verdade, um mecanismo especialmente bom para estabilizar sistemas complexos, e por isso não é surpresa que isso seja o que a biologia usa. Mas no mundo não-vivo, onde a replicação geralmente não acontece, as estruturas dissipativas bem adaptadas tendem a ser altamente organizadas, como ondas de areia e dunas cristalizando-se da dança aleatória da areia soprada pelo vento. Olhando dessa maneira, a evolução darwinista pode ser considerada como um exemplo específico de um princípio físico mais geral que governa os sistemas de não-equilíbrio.

Máquinas de previsão

Essa imagem de estruturas complexas que se adaptam a um ambiente flutuante nos permite também deduzir algo sobre como essas estruturas armazenam informações. Em suma, desde que tais estruturas vivas ou não sejam obrigadas a usar a energia disponível com eficiência, elas provavelmente se tornarão “máquinas de previsão”.
É quase uma característica definidora da vida que os sistemas biológicos mudem de estado em resposta a algum sinal de direção do ambiente. Algo aconteceu; você responde. As plantas crescem em direção à luz; eles produzem toxinas em resposta a patógenos. Esses sinais ambientais são tipicamente imprevisíveis, mas os sistemas vivos aprendem com a experiência, armazenam informações sobre seu ambiente e o usam para orientar o comportamento futuro. (Os genes, nesta foto, apenas fornecem os fundamentos básicos e de propósito geral.)
A previsão não é opcional, no entanto. De acordo com o trabalho de Susanne Still na Universidade do Havaí, Gavin Crooks, anteriormente no Lawrence Berkeley National Laboratory na Califórnia, e seus colegas, prever o futuro parece ser essencial para qualquer sistema energeticamente eficiente em um ambiente aleatório e flutuante.
Há um custo termodinâmico para armazenar informações sobre o passado que não tem valor preditivo para o futuro, Still e colegas mostram. Para ser maximamente eficiente, um sistema deve ser seletivo. Se ele se lembra indiscriminadamente de tudo o que aconteceu, isso gera um grande custo de energia. Por outro lado, se não se incomodar em armazenar qualquer informação sobre seu ambiente, estará constantemente lutando para lidar com o inesperado. "Uma máquina termodinamicamente otimizada deve balancear a memória contra a previsão minimizando sua nostalgia as informações inúteis sobre o passado", disse um co-autor, David Sivak, agora na Simon Fraser University em Burnaby, British Columbia. Em suma, deve tornar-se bom para colher informações significativas o que provavelmente será útil para a sobrevivência futura.
Você esperaria que a seleção natural favorecesse os organismos que usam energia de maneira eficiente. Mas até mesmo dispositivos biomoleculares individuais, como bombas e motores em nossas células, devem, de alguma maneira importante, aprender com o passado para antecipar o futuro. Para adquirir sua eficiência notável, Still diz, esses dispositivos devem "implicitamente construir representações concisas do mundo que encontraram até agora, permitindo-lhes antecipar o que está por vir."


A termodinâmica da morte

Mesmo que algumas dessas características básicas de processamento de informações dos sistemas vivos já sejam solicitadas, na ausência de evolução ou replicação, por termodinâmica de não-equilíbrio, você pode imaginar que traços mais complexos uso de ferramentas, digamos, ou cooperação social devem ser fornecidos por evolução.
Bem, não conte com isso. Esses comportamentos, comumente considerados como domínio exclusivo do nicho evolutivo altamente avançado que inclui primatas e aves, podem ser imitados em um modelo simples que consiste em um sistema de partículas que interagem. O truque é que o sistema é guiado por uma restrição: ele age de uma maneira que maximiza a quantidade de entropia (neste caso, definida em termos dos diferentes caminhos possíveis que as partículas podem seguir) geradas dentro de um determinado período de tempo.
Acredita-se que a maximização da entropia seja uma característica dos sistemas de não-equilíbrio. Mas o sistema neste modelo obedece a uma regra que permite maximizar a entropia ao longo de uma janela de tempo fixa que se estende para o futuro. Em outras palavras, tem previsão. Com efeito, o modelo analisa todos os caminhos que as partículas podem seguir e os compele a adotar o caminho que produz a maior entropia. Grosseiramente falando, isso tende a ser o caminho que mantém aberto o maior número de opções de como as partículas podem se mover posteriormente.
Você pode dizer que o sistema de partículas experimenta uma espécie de desejo de preservar a liberdade de ação futura, e que esse desejo guia seu comportamento a qualquer momento. Os pesquisadores que desenvolveram o modelo Alexander Wissner-Gross, da Harvard University, e Cameron Freer, matemático do Massachusetts Institute of Technology chamam isso de "força entrópica causal". Em simulações computacionais de configurações de partículas em forma de disco, movendo-se em particular configurações, essa força cria resultados que são estranhamente sugestivos de inteligência.
Em um caso, um disco grande foi capaz de “usar” um pequeno disco para extrair um segundo disco pequeno de um tubo estreito um processo que parecia um uso de ferramenta. Libertar o disco aumentou a entropia do sistema. Em outro exemplo, dois discos em compartimentos separados sincronizaram seu comportamento para puxar um disco maior para baixo, para que pudessem interagir com ele, dando a aparência de cooperação social.
Naturalmente, esses agentes simples de interação obtêm o benefício de um vislumbre do futuro. A vida, como regra geral, não. Então, quão relevante é isso para a biologia? Isso não está claro, embora Wissner-Gross tenha dito que agora está trabalhando para estabelecer “um mecanismo prático, biologicamente plausível, para forças entrópicas causais”. Enquanto isso, ele acha que a abordagem poderia ter implicações práticas, oferecendo um atalho para a inteligência artificial . "Eu prevejo que um modo mais rápido de alcançá-la será descobrir esse comportamento primeiro e depois retroceder nos princípios físicos e restrições, em vez de trabalhar com base em técnicas específicas de cálculo ou previsão", disse ele. Em outras palavras, primeiro encontre um sistema que faça o que você quer e depois descubra como ele faz isso.
O envelhecimento também tem sido convencionalmente visto como um traço ditado pela evolução. Os organismos têm um tempo de vida que cria oportunidades para se reproduzir, segundo a história, sem inibir as perspectivas de sobrevivência dos filhos por parte dos pais por muito tempo e competindo por recursos. Isso certamente parece ser parte da história, mas Hildegard Meyer-Ortmanns, físico da Universidade Jacobs, em Bremen, na Alemanha, acha que, em última análise, o envelhecimento é um processo físico, não biológico, governado pela termodinâmica da informação.


Certamente não é simplesmente uma questão de coisas se esgotarem. "A maior parte do material macio de que somos feitos é renovada antes de ter a chance de envelhecer", disse Meyer-Ortmanns. Mas esse processo de renovação não é perfeito. A termodinâmica da cópia de informação dita que deve haver uma troca entre precisão e energia. Um organismo tem um suprimento finito de energia, então os erros necessariamente se acumulam com o tempo. O organismo então tem que gastar uma quantidade cada vez maior de energia para reparar esses erros. O processo de renovação eventualmente resulta em cópias muito falhas para funcionar adequadamente; a morte segue.
Evidências empíricas parecem confirmar isso. Sabe-se há muito tempo que as células humanas cultivadas parecem capazes de se replicar não mais do que 40 a 60 vezes (chamado limite de Hayflick) antes de pararem e se tornarem senescentes. E observações recentes da longevidade humana sugeriram que pode haver alguma razão fundamental pela qual os humanos não podem sobreviver muito além dos 100 anos de idade.
Há um corolário para esse aparente desejo de que sistemas preditivos eficientes, organizados e com eficiência energética apareçam em um ambiente flutuante de não-equilíbrio. Nós mesmos somos um tal sistema, assim como todos os nossos ancestrais, de volta à primeira célula primitiva. E a termodinâmica do equilíbrio não parece nos dizer que isso é exatamente o que a matéria faz sob tais circunstâncias. Em outras palavras, o surgimento da vida em um planeta como a Terra primitiva, imbuído de fontes de energia como luz solar e atividade vulcânica que mantêm as coisas desequilibradas, começa a parecer não um evento extremamente improvável, como muitos cientistas supuseram, mas praticamente inevitável. Em 2006, Eric Smith e o falecido Harold Morowitz, do Instituto Santa Fé, argumentaram que a termodinâmica dos sistemas de não equilíbrio torna o surgimento de sistemas organizados e complexos muito mais prováveis ​​em uma Terra prebiótica longe do equilíbrio do que seria se os ingredientes químicos fossem apenas colocados em um "pequeno lago quente" (como Charles Darwin conjecturou), guisando gentilmente.
Na década desde que esse argumento foi feito pela primeira vez, os pesquisadores adicionaram detalhes e insights à análise. Essas qualidades que Ernst Mayr considerava essenciais à biologia significado e intenção podem emergir como uma consequência natural da estatística e da termodinâmica. E essas propriedades gerais podem, por sua vez, levar naturalmente a algo como a vida.
Ao mesmo tempo, os astrônomos nos mostraram quantos mundos existem por algumas estimativas que chegam aos bilhões orbitando outras estrelas em nossa galáxia. Muitos estão longe do equilíbrio, e pelo menos alguns são semelhantes à Terra. E as mesmas regras certamente estão sendo executadas lá também.

Comentários

Postagens mais visitadas deste blog

Usando a Complexidade de Kolmogorov para resolver o Problema da Parada

Explicado: P vs. NP

O Vocabulista: Qual é a raiz da palavra computador?