Artes

Biografias

Biologia

Educação Física

Espanhol

Filosofia

Física

Geografia

Geografia do Brasil

Gramática

História

História do Brasil

Inglês

Literatura

Matemática

Português

Quí­mica

Redação

Sociologia

Anemia falciforme

A anemia falciforme é um distúrbio raro de cunho hereditário, caracterizada por uma produção anormal dos glóbulos vermelhos. A seguir, aprenda tudo a respeito deste assunto, inclusive quais são os sintomas e tratamentos possíveis.

Anemia falciforme

O que é anemia falciforme?

Também conhecida como anemia drepanocítica ou de drepanocitose, a anemia falciforme tem como principal característica uma produção anormal dos glóbulos vermelhos, resultando em hemácias deformadas.

Esta deformação acaba deixando as hemácias mais sensíveis e sua membrana acaba se rompendo causando a anemia, que é a ausência de ferro. Devido à este rompimento, elas acabam ficando com um formato de foice, e este é o motivo pelo qual é chamada de falciforme.

Trata-se de uma condição bastante rara porque, as pessoas precisam receber 2 cópias do gene da hemoglobina com defeito, isto é, tanto o pai quanto a mãe precisam apresentar alterações os sintomas.

É uma doença grave porque, a hemoglobina anormal apresenta dificuldades de transportar o oxigênio para as células do corpo, o que pode causar diversos problemas de saúde. Os primeiros sintomas deste tipo de anemia são reconhecidos quando a pessoa é ainda muito jovem, em torno de 5 ou 6 meses de idade.

Entre as complicações de saúde que podem surgir em pacientes de anemia falciforme podemos citar AVC, anemia constante e diversos tipos de infecção. Além disso, até a expectativa de vida de pacientes com a doença pode ser menor, quando não tratada de forma correta.

Pesquisas indicam que pessoas com a pele negra possuem maior incidência da doença e somente no Brasil, 8% de toda a população negra apresenta este tipo de problema. Porém, quanto mais a miscigenação ocorre, maior a probabilidade dela se espalhar para outros grupos, incluindo pardos e brancos.

Atualmente sabe-se que existem 4 diferentes tipos de anemia falciforme, sendo que duas possuem cadeia alfa e 2 do tipo beta. São elas:

* De Hemoglobina SS
* De Hemoglobina SC
* De Hemoglobina SB Talassemia
* Beta-Zero Talassemia

A primeira, a de hemoglobina SS é a mais comum de todas e ao mesmo tempo, a que apresenta os sintomas mais graves nos indivíduos. A segunda, também muito presente na sociedade apresenta sintomas semelhantes, porém com uma anemia menos aguda.

A terceira, menos comum, possui uma apresentação de sintomas menos grave, enquanto a última também pode vir a desenvolver um prognóstico um tanto quanto menos favorável para a saúde do paciente.

Este tipo de anemia dura a vida toda já que é algo herdado geneticamente. Há diversas complicações de saúde que podem piorar ainda mais os sintomas de quem sofre com este tipo de doença, os chamados fatores de risco. Entre os mais comuns, podemos citar:

* Infecções em geral
* Cirurgias e lesões, devido à perda de sangue
* Dieta não equilibrada e pobre em vitaminas, principalmente o ferro
* Doença na tireoide
* Doenças nos rins
* Diabetes
* AIDIS
* Artrite
* Câncer

Os sintomas deste tipo de anemia variam bastante, sempre de acordo com a idade do paciente, dieta, cuidados com a saúde e até tipo. O primeiro a ser observado é a anemia, que pode surgir em bebês ainda muito jovens, entre 5 e 6 meses.

Em outros, as crises de dor são algo bastante comum, já que tanto os ossos como articulações são afetados devido à dificuldade de transporte de oxigênio. Este tipo de dor costuma ficar ainda pior em dias frios e podem surgir em todo o corpo, por um tempo indeterminado.

Mulheres grávidas, desidratas ou que passam por fortes emoções também podem apresentar quadros mais intensos de dor.

As infecções também são um ponto a ser considerado em pacientes da doença, principalmente que crianças, que são mais propensas a contrair meningite ou pneumonia. Nestes casos, são indicadas a aplicação de vacinas especiais para sua maior proteção.

Outros sintomas são úlceras, síndrome mão-pé, que apresenta inchaço, dores e outras sensações nos membros, necrose avascular, sequestro de sangue no baço, priapismo, e até cor amarelada na pele e nos olhos.

Qual é o tratamento para a doença?

Por ser uma doença hereditária e genética, não possui cura. Apesar disso, algumas pessoas já se livraram do problema com o transplante de medula óssea. Ou seja, na grande maioria das vezes, o paciente precisará conviver com os sintomas durante toda a sua vida, apostando em uma dieta bastante rica em ferro, suplementando com vitaminas e, em algumas vezes, utilizando medicamentos especiais para controlar os sintomas.

Diversos profissionais da saúde devem ser envolvidos na vida do paciente, desde médicos, dentistas, nutricionistas, enfermeiros e até assistentes sociais. Toda e qualquer intervenção médica deverá ser feita com um cuidado ainda maior e o paciente deve sempre informar que sofre do problema.

Em momentos de crise da doença, o paciente poderá precisar de transfusões de sangue, capazes de melhorar o transporte de oxigênio dentro do organismo. Mulheres grávidas necessitam de um acompanhamento ainda maior e jamais um paciente de anemia falciforme poderá se automedicar.

Carros Bicombustíveis

Ultimamente, as fábricas automotivas passaram a produzir carros bicombustíveis. Esses veículos podem ser abastecidos tanto com álcool ou gasolina e ganharam a confiança do público por serem mais práticos e condizentes com o propósito que cada combustível proporciona ao automóvel. O trabalho com um combustível diferente não interfere na troca de um para outro de forma manual ou automática.

Carros Bicombustíveis

A maioria dos proprietários costuma se concentrar no uso do álcool e da gasolina, mas há alguns veículos, como os de taxistas, que já são projetados para funcionar à base de gás natural veicular, o GNV. A partir de comandos eletrônicos movidos por sensores, o motorista do carro pode acionar um dos combustíveis para fazer o veículo funcionar ou então misturá-los no tanque de combustão sem que o motor seja prejudicado ou outra estrutura apresente falhas.

Como surgiram os carros bicombustíveis?

A ideia de um motor que usasse dois combustíveis surgiu na Alemanha, no período da Segunda Guerra Mundial. Os militares alemães usavam bombas voadoras à base de álcool ao invés de gasolina. Como o funcionamento dessas bombas continuava eficaz, o seu uso continuou, chegando a atrair montadores norte-americanos que pensaram em fabricar carros mais potentes e ao mesmo tempo econômicos.

Foi na década de 70 que a General Motors (GM) construiu seus primeiros exemplares automobilísticos com motores para álcool (85%) e gasolina (15%). No Brasil, a difusão da fabricação desses modelos chegou cinco anos mais tarde, a partir do enfoque ao programa Pró-álcool. A medida visava a fabricação de álcool a partir de cana-de-açúcar e mandioca para estimular a economia brasileira nesse setor e desafogar a compra de gasolina no país.

Dez anos mais tarde, o programa perdeu força devido ao aumento do petróleo no mercado internacional, interferindo também no valor do açúcar. O combustível ficou mais caro e muitos consumidores se concentraram em comprar gasolina, enfraquecendo o custo-benefício e a eficácia do programa. Embora regulamentado devidamente pelo Governo Federal Brasileiro, o programa quase foi extinto e só foi ganhar força 23 anos depois.

Em 2003, a Volkswagen decidiu investir mais intensamente nesse formato e lançou o Gol 1.6 Total Flex, o primeiro de muitos carros bicombustíveis que seriam fabricados e vendidos no Brasil. Ao contrário de como eram feitos os carros militares alemães, o novo Gol garantiu a mesma proporção de um combustível para outro e o motorista poderia alternar seu uso, manual ou automaticamente, sem nenhum risco. Isso compensaria a economia do país e também o setor automobilístico, movendo outras montadoras a fabricarem carros desse mesmo estilo.

Como eles funcionam?

Assim como ocorreu com o gol, os carros bicombustíveis atuais também podem armazenar e usar os combustíveis na mesma proporção. Mas a diferença é que o tanque de um carro flexfuel é maior do que o de um carro comum. Dessa forma, há mais espaço para os dois combustíveis, uma vez que o álcool é consumido com mais frequência do que a gasolina.

Para garantir que esse consumo seja equilibrado e não cause nenhum dano, o carro apresenta três partes básicas: os sensores eletrônicos, a central de comando e o motor. O fato de o motorista abastecer o carro com um combustível e depois com outro não resulta em problemas mecânicos.

• Sensores eletrônicos: os sensores captam a queima do combustível. Ele verifica os gases emitidos (especialmente oxigênio) para gerar uma voltagem aplicada ao tipo de combustível usado. Para cada líquido, os sensores enviam a informação a um chip instalado na central de comando para fazer o carro funcionar;

• Central de comando: é onde as informações obtidas pelos sensores eletrônicos são armazenadas. Um programa é instalado num chip que se concentra na central de comando. Esse programa propõe um cálculo de como o motor pode trabalhar a mistura do combustível. No caso do álcool, o consumo não gera tantos gases poluidores, mas a potência do carro fica mais fraca, exigindo que o motorista abasteça mais vezes. Já a gasolina garante mais potência, mas a emissão de gases nocivos (advindos do processamento de petróleo) promove maior poluição;

• Motor: o motor vai ajudar sua estrutura para que o combustível mova todos os seus compartimentos. O cilindro e o ponto de ignição ficam a postos para receber o combustível e dar o comando de quando a vela pode soltar a faísca e queimar o líquido em sua caixa de combustão.

É importante que o motorista fique ciente de que a potência de um carro flex é diferente de um carro que funciona somente com um dos combustíveis. A perda de eficácia 12 vezes menor do que um carro exclusivo à álcool ou à gasolina devido a taxa de compressão ser mais trabalhada com o consumo das duas substâncias. Entretanto, como uma forma mais econômica e segura de se usar um veículo, um carro que usa os dois líquidos ainda é uma alternativa mais viável tanto para uso como para o meio ambiente.

Reação de Saponificação

O conhecido sabão usado para higienização de objetos e também do corpo decorre de uma reação denominada reação de saponificação. O processo para formar o sabão decorre de uma hidrólise básica de lipídeos com a suplementação de uma base química forte e capaz de aquecer a reação e formar a consistência ensaboada. Daí a sensação mais quente na pele quando se molha o sabão em pó na água. A hidrólise é reconhecida como uma transformação alcalina e o meio aquoso reage com um éster para formar o sabão em si.

Reação de Saponificação

Funcionamento da reação

A reação de saponificação possui uma cadeia química simplificada, mas com agentes específicos para que o resultado se concretize. Para começar, um éster é adicionado à mistura, que é abstraído de um ácido graxo. Um ácido graxo possui 12 átomos de carbono ou até mais dependendo de sua combinação. Essa cadeia é propícia para que a reação crie forma e consiga interagir com as outras substâncias.

Em seguida, o éster recebe uma composição de glicerina, base de glicerol ou propanotriol. Essas moléculas, também conhecidas como triglicerídeos, advêm de produtos naturais como os óleos vegetais ou de algum tipo de gordura. É por isso que num processo de fabricação de sabão caseiro se usa óleo de cozinha, pois a concentração desses triglicerídeos é essencial para formar a reação.

Com um aquecimento considerável, esses triglicerídeos começam a reagir com o éster numa solução aquosa juntamente a uma base forte, o hidróxido de sódio. Como o hidróxido de sódio (conhecido como soda cáustica) tem sua característica forte, o sabão se torna um sal de ácido carboxílico também por causa da concentração dos 12 átomos de carbono dos ácidos graxos. Essa cadeia longa de carbono é capaz de deixar o sabão se solubilizar em qualquer ambiente. Isso ocorre devido a dois fatores:

• Uma extremidade da combinação química da reação de saponificação sempre será apolar, ou seja, uma área desloca carga elétrica (polar) e a outra não apresenta o deslocamento e não causa eletronegatividade dos átomos (apolar);

• O sabão é tensoativo. Ele diminui a força da água a fim de que seus compostos consigam eliminar um resíduo ou sujeira. É por isso que ao passar o sabão em uma superfície molhada, o produto consegue ser ainda mais molhado em virtude da facilidade de solubilidade com a água.

Essa combinação pode ser expressa a partir da seguinte equação:

Éster de ácido graxo Base forte (hidróxido de sódio) -> sabão álcool (glicerina).

O sabão só é formado quando o éster passa por toda a mistura com esses agentes sob o efeito aquecedor. Sem esse aquecimento a composição não cria forma.

História e composição dos sabões

A reação de saponificação era feita de forma bem manual tempos atrás. Materiais graxos extraídos de animais e vegetais eram misturados com cinzas de madeira queimada porque essas cinzas tinham potássio em sua composição. O potássio também pode ser usado no lugar do hidróxido de sódio para tornar a hidrólise em estado alcalino. Contudo, o sabão ficava mais mole e nem sempre chegava a uma consistência dura, chegando a ficar líquido.

Já com o hidróxido de sódio, os sabões ficaram mais duros, resistentes e a solubilidade ficou proporcional à intensidade do uso do produto. A partir daí, foi-se determinado a quantidade de hidróxido de sódio para ser usado na mistura a fim de deixar o sabão ainda mais consistente em relação à quantidade de gordura misturada. A partir dessa comparação pode-se perceber como dimensionar o uso das duas substâncias:

Manteiga caseira – 210 mg de KOH (hidróxido de sódio)
Banha de porco – 200 mg de KOH
Óleo de algodão – 200 mg de KOH
Óleo de linhaça – 195 mg de KOH

A preferência por óleos comestíveis é maior porque seus compostos de ésteres são mais concentrados e o ácido graxo presente em sua composição é mais fácil de reagir diante do aquecimento do composto. Entretanto, como visto nos dados acima, nem todo óleo vegetal exige a mesma quantidade de KOH para ser misturado. Uma vez que a quantidade de KOH é ultrapassado, o sabão fica bem mais duro, seco e demora mais tempo para se solubilizar numa solução aquosa.

Outro dado importante é que as moléculas de triglicerídeos também podem ser aproveitadas durante a reação química para produzir glicerina. Durante a reação química, cada molécula de triglicerídeo se divide em uma molécula de glicerina, podendo ser aproveitada para formar a substância e removida à parte. Separando de outros ácidos graxos formados, a glicerina então pode ser usada para fazer sabonetes, velas e cremes estéticos.

Por ser um processo fácil de preparação, muitas pessoas costumam fazer sabão em casa. Porém, é preciso cuidado ao manusear os agentes pertencentes à mistura, especialmente o hidróxido de sódio ou o potássio. Por serem bases muito fortes e alcalinas, o contato com elas pode corroer ou caracterizar um efeito abrasivo.

O Que é Efeito Termoiônico?

Em todo metal, elétrons livres são capazes de ter uma movimentação desordenada quando ficam expostos a uma temperatura elevada. Em virtude dessa agitação térmica, os elétrons migram para a superfície do metal, atraídos por íons positivos. A saída desses elétrons do metal aumenta quando a temperatura tende a aumentar, tornando essa ação ainda mais fácil. A esse acontecimento dá-se o nome de efeito termoiônico, caracterizado pelo aumento de energia quando a temperatura alta provoca uma maior agitação dos elétrons sobre o metal.

Efeito Termoiônico

Esse efeito foi notado pela primeira vez pelo inventor inglês Frederick Guthrie em 1873, embora muitos afirmem que o inventor norte-americano Thomas Edison tenha, de fato, descoberto o fenômeno. No entanto, Frederick Guthrie reparou no acontecimento de forma desproposital, enquanto Thomas Edison já fazia observações específicas em filamentos de lâmpadas incandescentes, nos quais o efeito ocorre.

Guthrie era inventor e manuseava objetos carregados e fazia experimentos com esses materiais a fim de entender como eles trabalhavam. Já Edison foi mais além e descobriu o efeito termoiônico através de uma ação mais detalhada e relacionada ao efeito.

O trabalho de Thomas Edison

Três anos após o trabalho de Guthrie, Edison pôs uma placa metálica sobre uma lâmpada elétrica comum. Nessa placa foi instalado um filamento metálico com um dispositivo chamado galvanômetro, que mede o potencial elétrico de dois pontos distintos. A placa teve sua ligação positiva a uma bateria enquanto o filamento metálico ficou interligado ao polo negativo da mesma bateria.

Quando Edison causou uma descarga elétrica negativa na placa metálica mais forte do que no filamento, a corrente elétrica não transitou entre os dois pontos. A intensidade dessa descarga elétrica negativa não foi o suficiente porque a carga negativa não gerou tanta agitação a ponto de os elétrons saírem da placa metálica.

Em contrapartida, quando Thomas Edison colocou a placa a uma carga elétrica ainda mais positiva do que a do filamento, os elétrons começaram a se agitar e se moverem com facilidade para a placa de metal. Dessa forma, a corrente elétrica fluiu com flexibilidade e em sentido único, sem desordem. A partir daí, o efeito termoiônico ficou conhecido como Efeito Edison e pode ser medido através do galvanômetro para notar se é preciso uma carga positiva ainda maior para fazer com que os elétrons sejam movidos até a placa metálica.

A lei de Richardson e a emissão termoiônica

Owen Willians Richardson foi outro importante cientista que usou o Efeito Edison para criar a Lei de Richardson, uma equação capaz de determinar a densidade elétrica da corrente que surge em virtude da temperatura em que os elétrons são expostos.

John Ambrose Fleming foi um físico que já tinha estudado com mais profundidade o efeito antes de Richardson. Porém, seu trabalho se concentrou para a progressão de tubos de vácuo entre dois pontos, que é o diodo. Já Richardson postulou a equação seguindo a seguinte teoria:

• Em qualquer metal, cada átomo possui dois elétrons ou mais que podem se mover livremente de um átomo para outro sem restrição;

• A velocidade que esses elétrons percorrem de um átomo até outro respeita uma estatística capaz de deixar um elétron sair do metal e o outro voltar ao seu ponto de origem;

• Embora em todos os metais esse fenômeno ocorra, há uma variação de energia que influencia na velocidade desses elétrons a outros pontos e um deles saia da superfície metálica.

Obedecendo essas três orientações, o efeito termoiônico pode ser analisado a partir da seguinte equação conhecida como Lei de Richardson:

J = AT² -W/k.T, onde:

J é a densidade da corrente elétrica a ser encontrada;

A é a constante de proporcionalidade;

T é a temperatura expressa em escala Kelvin;

W é o trabalho exercido por essa energia para mover os elétrons;

K é a constante de Boltzmann.

Esse efeito é comum de ser encontrado em válvulas eletrônicas dentro de rádios, mas é nas televisões que o fenômeno é compreendido mais facilmente. O diodo, que são os tubos de vácuo entre as duas posições que os elétrons podem se mover, recebe um aquecimento através de um filamento que conduz a corrente elétrica até o interior do tubo. O diodo é envolto por outro tubo que administra a carga negativa recebida pelo filamento metálico.

A partir de uma diferença de potencial entre os dois tubos, os elétrons se movem do tubo ao redor do tubo principal para o próprio diodo, causando a conversão das correntes no componente eletrônico. É através dessa conversão que as imagens são formadas e a televisão consegue absorver essa corrente elétrica e transmitir o sinal de captação. Somente através de uma energia suficiente que os elétrons poderão migrar para a válvula principal do aparelho eletrônico a fim de que o resultado se concretize.

Caso não tenha uma temperatura favorável à sua velocidade, os elétrons não superam sua força de atração e não se movem consideravelmente.

Origem dos Antibióticos

Os antibióticos são medicamentos utilizados em diversas ocasiões para tratamento de diversas doenças. A capacidade que eles possuem de interagir com seres unicelulares ou pluricelulares no organismo é eficaz e é possível administrá-los para eliminar esse agente que causa alguma anomalia no corpo, especialmente as bactérias. Eles também podem ter influência no combate a enfermidades virais, como a gripe, mas seus efeitos não são concentrados em eliminar o micro-organismo, uma vez que esses remédios são bactericidas e a inibição do metabolismo e reprodução não é compatível em compostos virais.

Origem dos Antibióticos

Em meio a vários testes e análises peculiares, a origem dos antibióticos foi um marco para a história da medicina, uma vez que sua descoberta serviu não só para combater diversas doenças, mas também descobrir a forma de como as bactérias se comportam no organismo humano e proteger o sistema imunitário.

Alexander Fleming: o pai dos antibióticos

Alexander Fleming foi um médico microbiologista londrino que atuava no Hospital St. Mary’s. Com a frequência de pacientes que chegavam ao hospital com queixas de doenças causadas por bactérias, dr. Fleming passou a analisar com mais atenção a maneira de como as bactérias cresciam no organismo e quais substâncias poderiam interagir nelas e matá-las. Essa pesquisa ficou ainda mais usual com a chegada de combatentes feridos da Primeira Guerra Mundial. Os militares vinham ao hospital com feridas infectadas e muitos vinham a óbito em decorrência da agressividade da infecção e da falta de agentes capazes de eliminar as bactérias.

Em 1928, Fleming tirou férias do trabalho e deixou amostras de estafilococos em cima de sua mesa ao invés de colocá-las na geladeira para preservação. As férias duraram um mês e após sua chegada, Fleming percebeu que as placas que guardavam as culturas de estafilococos desenvolveram mofo e foi aí que a origem dos antibióticos começou a se desenvolver.

Fazendo uma esterilização com lisol (emulsão feita com sabão, hidróxido de potássio e óleo de linhaça), o médico notou um halo transparente ao redor do mofo desenvolvido na placa. Dr. Pryce, colega de trabalho de Alexander Fleming e também microbiologista também comentou sobre como as pesquisas estavam indo e Fleming argumentou que o próprio fungo formou um agente bactericida, que mais tarde seria a famosa Penicilina.

A origem dos antibióticos então passou a ser mais difundida quando o próprio Fleming pegou essas amostras com a Penicilina formada e enviou ao seu laboratório para análise. A partir daí, duas características eram trabalhadas nessa observação:

• A Penicilina tinha uma forte interação com as bactérias expostas à substância mesmo que ambientes diversos;

• Embora as bactérias já demonstrassem fraqueza perante o material, algumas eram ainda mais sensíveis do que outras, sendo mortas com mais rapidez. Outras ainda apresentaram resistência, mas ainda sim não tinham forças contra a interação da substância e também morreram.

Fleming então viu que a Penicilina poderia ser usada para fins terapêuticos, mas o governo londrino não demonstrou interesse em financiar o projeto e nem ampliar os estudos sobre a substância. Porém, com o advento da Segunda Guerra Mundial e com situações de militares feridos e infectados com uma frequência ainda maior do que na Primeira Guerra, o governo viu que o financiamento às pesquisas era essencial para evitar que mais militares fossem mortos por falhas no auxílio médico.

Chain e Fleorey

Dois doutores, Ernst Chain e Howard Fleorey, eram médicos e professores da Universidade de Oxford, também na região britânica. Os dois quiseram continuar os estudos iniciados sobre a origem dos antibióticos feitos por Fleming e produzir a Penicilina em uma escala maior a fim de ser distribuída ao sistema de saúde do país.

Contudo, Chain e Fleorey só se concentraram na mesma forma que Fleming havia feito para produzir Penicilina. A produção industrial começou a ser desenvolvida, mas concentrada somente a partir de um único experimento. Foi quando Ronald Here, outro colega de trabalho do hospital em que Fleming trabalhou, que as experimentações passaram a ser mais específicas e com detalhes ainda mais diversos. O microbiologista então passou a notar 3 fatores dentro do mesmo teste que Fleming havia feito:

• O calor é um fator primordial para o desenvolvimento do halo transparente ao redor do fungo. A temperatura naquele momento em Londres era mais quente, o período era o verão. Nesse caso, a cultura bacteriana na placa possui um crescimento proporcional à temperatura do ambiente em que se encontra, predominando a formação do antibiótico;

• O fungo cresce a tal ponto que a lise bacteriana não consegue se reproduzir com mais rapidez. Dessa forma, a Penicilina produzida é mais rápida em deter o crescimento da cultura e eliminar as bactérias presentes;

• O cogumelo que se formou na placa onde estavam alojadas as bactérias consegue produzir o antibiótico com mais facilidade do que outras espécies do gênero Penicilium. Isso ajudou os avaliadores a perceberem a maneira de como o halo deve ser administrado e assim gerar o antibiótico mais concentrado e em maior nível.

Cuidados paliativos

Pessoas que enfrentam um câncer necessitam de uma atenção ainda mais detalhada. Devido à intensidade da doença e de seus efeitos eclodirem em diversos aspectos da vida do paciente, a assistência aos pacientes com câncer precisa ser ampla e compreender todas as características afetadas pela descoberta da doença, especialmente quando o paciente está em fase terminal.

Cuidados paliativos

Promover e preservar a qualidade de vida para um quadro incurável depende da prestação dos cuidados paliativos. Com a ajuda de uma equipe multidisciplinar, esses cuidados vão desde a aceitação da doença e da morte como um estágio final da enfermidade até medidas para se ter uma terminalidade tranquila e sem nenhuma preocupação.

O que são os cuidados paliativos?

Esses cuidados são um pouco mais complexos do que um tratamento ou uma terapia para quem enfrenta um câncer. Diferente de casos que ainda há chances de cura, um paciente terminal já não detém de opções disponíveis para reverter a situação da doença porque ela já se agravou a tal ponto do organismo não corresponder aos tratamentos prescritos. E é aí que esses cuidados entram em vigor.

Essas medidas não visam a cura do câncer, mas sim na qualidade de vida em sua fase final. Dois enfoques são trabalhados: alívio dos sintomas ou de outras manifestações que a anomalia pode causar ao corpo e na prevenção dessas crises através de técnicas para preservar o tempo de vida até onde for possível.

Esses cuidados normalmente começam quando os pacientes já recebem o resultado de expectativa de vida de até, pelo menos, 6 meses. Métodos curativos não são abordados nessas ações, mas a equipe multidisciplinar foca em procedimentos que tratam sobre a aceitação, a tranquilidade e apoio da família e também de amigos, em tomada de decisões significativas nessa etapa e outras diretrizes que são relativamente importantes para que o paciente se sinta bem nesse período final da vida.

O único problema do paliativismo é que alguns médicos deixam que esse procedimento se inicie muito tarde. Embora o conforto precise ser maior já bem próximo do fim de expectativa de vida do paciente, os cuidados paliativos podem ser feitos já no momento do diagnóstico e prosseguindo durante o tratamento até a fase final. Qualquer tipo de apoio, seja ele clínico, espiritual, psicológico e social precisam ser abordados no processo mediante a trajetória de vida do indivíduo.

Como funcionam esses cuidados?

Embora se trate de uma enfermidade, os médicos devem participar do processo, mas não são o enfoque principal das medidas. A atenção se volta ao atendimento social e emocional do paciente e da família e por isso, a equipe se expande para outros profissionais especializados:

• Enfermeiros: são os que acompanham cada ação ou alteração que ocorre ao paciente e que tomam iniciativas imediatas antes dos médicos realizarem alguma ação maior;

• Nutricionistas: pacientes com câncer passam a desenvolver algumas intolerâncias alimentares, perdem o apetite ou desenvolvem dificuldade para se alimentar devido aos efeitos colaterais da doença. Os nutricionistas podem acompanhar perda ou ganho de peso, direcionar dietas e acompanhar outros aspectos relacionados à nutrição do corpo;

• Farmacêuticos: fazem a administração de remédios que precisam ser consumidos durante os tratamentos;

• Psicólogos: são parte importante entre o paciente e a família. Em relação ao paciente, os psicólogos ajudam a compreender que a morte é parte inclusa da vida e sua aceitação é um ponto-chave para uma partida mais acalentadora, prevenir incidências de ansiedade, depressão ou raiva. Com a família, o apoio psicológico trabalha com a perda de um ente querido, o amparo com o paciente frente a crises emocionais pela doença e outras possíveis dificuldades emocionais;

• Fisioterapeutas: um fisioterapeuta pode ser útil porque alguns tipos de câncer podem prejudicar a locomoção e a capacidade motora dos pacientes. Exercícios, alongamentos, atividades de descompressão do corpo e outras táticas são desenvolvidos por esses profissionais;

• Ministros ou evangelistas: dependendo da crença ou religião do paciente e de seus familiares, os cuidados paliativos também podem ser feitos com a ajuda de pessoas ligadas a questões espirituais relacionadas às crenças do indivíduo. A fim de garantir maior aceitação e autonomia para se ter uma fase final tranquila, essas pessoas também influenciam na melhora emocional.

Mesmo que os cuidados paliativos estejam sendo administrados, não é recomendado parar o tratamento no decorrer do processo. O ideal é que as duas medidas sejam interligadas para que o paciente perceba e se sinta mais confortável e em paz. Esses cuidados geralmente ocorrem em hospitais e grandes centros médicos, pois o contato com a equipe multidisciplinar é mais próxima. Contudo, não há restrições do paciente receber a equipe em casa, embora muitos hospitais ofereçam centros especializados em paliativismo e que retratam assuntos ainda bem mais delicados como sexualidade, ocorrência de linfedemas, infecções, entre outros.

Ou então o paciente, em consenso com a família, pode optar por um hospice que também ofereça esses cuidados de forma mais direta e eficaz.

A Primeira Revolução Industrial

A Revolução Industrial, numa visão histórica global, é um processo ainda em curso em pleno século XXI, sem hora marcada para terminar. Pode ser corretamente definida como um processo contínuo de renovação e aperfeiçoamento dos meios de produção, da geração de valor, redução dos custos e aumento de produtividade.

A Primeira Revolução Industrial

Da máquina de fiar, que, na segunda metade do século XVIII, foi um marco da mecanização da produção, que revolucionou a produção de fios para tecidos, substituindo a velha roca, à era da tecnologia da informação, da biotecnologia, da robótica e da engenharia genética, a industrialização é um dos principais indutores das mudanças na sociedade humana desde a Primeira Revolução Industrial.

A Revolução Industrial foi a principal responsável pela migração das populações campestres para as cidades. Diante da oferta de trabalho nas indústrias, camponeses migravam para as cidades em busca de oportunidades.

A industrialização originou novas formas de pensar a sociedade e novos tipos de organizações sociais e políticas, assim como está relacionada ao surgimento de novos conflitos.

Do ponto de vista material, a industrialização está entre os mais preciosos indutores de qualidade de vida. Através do aumento dramático da capacidade de produção de bens de consumo, é possível entregá-los a mais pessoas com um custo mais baixo e preços menores. Como contribuiu para a distribuição de riquezas, ainda que de forma precária, principalmente no primeiro momento, contribuiu para levar, progressivamente, mais conforto a mais pessoas.

Ambiente da Primeira Revolução Industrial

A Europa chegou à segunda metade do século XVIII vivendo um período de grandes mudanças. A Europa feudal da Idade Média dera lugar a monarquias poderosas, que concentravam a maior parte das riquezas, mas o advento das grandes navegações, iniciadas no final do século XIV, e o incremento do comércio haviam criado uma força nova força econômica.

A Inglaterra, que se tornara um grande império, com vasta colônia no território americano e domínio sobre a Índia, era uma das nações que enriquecia com o comércio. Ainda que a forma de colonização do continente americano fosse no modelo de povoamento, conferindo alguma independência aos colonos, esse era um mercado consumidor cativo para os produtos ingleses.

Da mesma forma, a Inglaterra possuía no próprio continente europeu um mercado para seus produtos têxteis, sendo que o comércio enriqueceu os que se aventuraram naquela atividade econômica.

Com isso, estavam estabelecidas as condições para que a Inglaterra desse o primeiro passo para alavancar um processo que mudaria a humanidade. Havia, afinal, mercado consumidor e capital para financiar a industrialização.

Como foi a Primeira Revolução Industrial

Por volta de 1750, teve início na Inglaterra a transição do sistema de produção baseado na manufatura para o sistema fabril. A máquina de fiar é parte do marco zero da primeira Revolução Industrial. Transformou a Inglaterra na maior produtora de fios para tecidos de algodão. Em 1785, o tear mecânico substituiu o tear manual, levando os ingleses a se tornarem a mais competitiva nação na produção de tecidos.

A industrialização logo chegou à França, Bélgica, Itália, Alemanha e Rússia. Fora da Europa, ganharia impulso, também, no Japão e nos Estados Unidos.

A busca por formas de energia para mover os parques industriais acabou originando a máquina a vapor, primeiramente para utilização nas indústrias de ferro, carvão mineral e tecidos, posteriormente impulsionando o setor de transportes, com os navios a vapor e as locomotivas.

Do ponto de vista político, a Primeira Revolução Industrial abriu caminho para a expansão do imperialismo europeu. Grande parte da matéria prima utilizada na indústria vinha das colônias, que também eram consumidoras dos produtos industrializados. Assim, a Europa estendeu seu controle e dominação sobre povos africanos e nações asiáticas.

Do ponto de vista das relações de trabalho, é importante notar que o advento da Primeira Revolução Industrial é contemporâneo aos ideais iluministas e ao surgimento do liberalismo econômico, que preconizava que as relações de produção, trabalho, lucro e consumo seriam capazes de organizar a sociedade e fazer a justa distribuição de riqueza e bem estar.

Na realidade, não foi bem o que aconteceu. O início do processo de industrialização foi marcado por operários submetidos a condições precárias de trabalho, com carga horária impensável nos dias atuais e vivendo em condições não menos precárias nas cidades.

Esse fenômeno, intimamente ligado à Primeira Revolução Industrial, está na origem de grandes transformações na sociedade humana. Foi na primeira metade do século XVIII que surgiram as organizações sindicais, criadas como forma de reivindicação coordenada de melhores condições de trabalho. Posteriormente, essas organizações ganhariam um viés mais politizado, com o surgimento das ideias anarquistas e, posteriormente, do marxismo, que, em resumo, pregava que a forma como se estabeleciam as relações de produção e distribuição de riquezas de uma nação é o que a definia.

O processo que ficou conhecido como Primeira Revolução Industrial ocorreu em um período que compreende a metade do século XVIII até meados da segunda metade do século XIX.

Aneurisma Cerebral

Dilatação considerada anormal localizada em uma das artérias cerebrais, o aneurisma cerebral geralmente acontece na região do Polígono de Willis e é resultado do enfraquecimento local da parede dessa parte do cérebro. Pouco conhecido pela população em geral, o Polígono de Willis, também chamado de círculo arterial cerebral, é uma estrutura extremamente importante para a circulação sanguínea do cérebro e também para o seu melhor funcionamento.

Aneurisma Cerebral

De forma geral, o aneurisma cerebral acontece quando uma saliência com o formato de um balão aparece repentinamente nas artérias cerebrais do paciente. Esse balão surge em decorrência do enfraquecimento da parede dos vasos. Isso significa que a parede de um aneurisma é mais fraca que a parede de uma artéria considerada saudável. Por isso, as chances de rupturas e hemorragias cerebrais são maiores.

Conheça alguns dados sobre o aneurisma cerebral

Estudos recentes revelaram que pelo menos 5% de toda a população possui pelo menos um aneurisma cerebral. Desse total, 20% das pessoas convivem com dois ou mais aneurismas no cérebro simultaneamente.

A incidência desse problema é muito maior entre pessoas do sexo feminino do que entre os homens. Além disso, os casos de aneurisma cerebral são maiores entre pessoas que já têm mais de 50 anos de idade, sendo considerado um fator de risco.

Apesar da porcentagem de pessoas que possuem um ou mais aneurisma cerebral ser alta, o número de rupturas de aneurismas cerebrais que causam uma hemorragia intracraniana é considerada baixa: apenas 10 aneurismas cerebrais para cada 100 mil pessoas que possuem esse problema.

O que podemos concluir com esses dados? Todas essas estimativas indicam que o aneurisma cerebral não é uma situação rara no corpo humano. Muito pelo contrário! As chances de termos esse problema são altas. Porém, grande parte dos aneurismas localizados no cérebro acaba não se rompendo ou causando sintomas na pessoa que o possui.

Fatores de risco, sintomas e tratamento

As chances de uma pessoa já nascer com um aneurisma cerebral são pequenas. Isso significa que o paciente acaba desenvolvendo esse problema ao longo da vida e alguns fatores e hábitos que adquirimos com o passar dos anos acabam facilitando o aparecimento desse problema. Os principais fatores de risco para um aneurisma cerebral são:

Pressão alta;
Presença de tumores cerebrais;
Uso excessivo de bebidas alcoólicas;
Histórico familiar;
Uso excessivo de cigarro;
Pessoas com mais de 50 anos de idade;
Utilização de drogas como cocaína e crack.

Porém, não são apenas esses fatores de risco que contribuem para que a pessoa desenvolva um aneurisma cerebral durante a vida. Algumas doenças consideradas genéticas também aumentam as chances do paciente ter um aneurisma cerebral. Alguns desses problemas de saúde são:

Esclerose tuberosa;
Lúpus eritematoso sistêmico;
Síndrome de Marfan;
Rins policísticos;
Coarctação da aorta.

Você conhece os principais sintomas de um aneurisma cerebral? Como na maioria das vezes eles são pequenos e não se rompem, é muito comum que os aneurismas cerebrais sejam assintomáticos, ou seja, não apresentem nenhum tipo de sintoma.

Porém, essa não é a realidade de todos os aneurismas localizados no cérebro. Quando apresentam sintomas, normalmente os aneurismas cerebrais podem causar fortes dores de cabeça, formigamento e dormência em algumas regiões do corpo, visão borrada, alterações na pupila e até mesmo a paralisação de um dos lados do rosto do paciente.

O aneurisma dificilmente apresenta esses sintomas antes da sua ruptura. Por isso, a maioria das pessoas vivem anos com sua presença sem nem ao menos senti-lo. Além disso, todos esses sintomas irão variar de acordo com o tamanho do aneurisma e também com a sua localização.

Na maioria dos casos, o paciente acaba descobrindo que tem um aneurisma cerebral de forma acidental. Muitas vezes, o médico faz o diagnóstico do problema enquanto realizava exames que possuíam outros objetivos. Alguns desses exames são a tomografia computadorizada, a ressonância magnética cranial e exames de imagem.

O tratamento de um aneurisma cerebral variará de acordo com seu tamanho e também do seu rompimento ou não. Aneurismas menores e com pouco sangramento acabam apenas sendo monitorados com exames que devem ser realizados anualmente pelo paciente. Recomenda-se que essas pessoas evitem o uso de drogas, cigarro e bebidas alcoólicas, pois isso diminuirá as chances do aneurisma aumentar ou se romper.

Quando o aneurisma cerebral é maior e possui um risco elevado de rompimento, é necessária a realização de um procedimento cirúrgico imediatamente. Isso também acontece em casos em que o aneurisma já se rompeu. Nos dois casos, o tratamento com a cirurgia deve ser iniciado o quanto antes para aumentar as chances de sobrevivência do paciente.

A cirurgia para tratar essas duas situações busca interromper o fluxo sanguíneo para a região onde o aneurisma cerebral está localizado. Muitos médicos também realizam a embolização do aneurisma, método pouco invasivo que implanta um fio de platina no aneurisma e interrompe o fluxo sanguíneo para essa área.

Síndrome da anorexia-caquexia

A cada ano, 1 milhão de novos casos de câncer surgem no mundo segundo uma pesquisa feita pela American Cancer Society (ACS). Hábitos de vida nocivos, sedentarismo, obesidade, tabagismo, alcoolismo e outros comportamentos prejudiciais ao corpo são as principais influências para que tumores, benignos ou malignos, venham aparecer no organismo.

Síndrome da anorexia-caquexia

Além de medidas como a radioterapia e a quimioterapia, muitos médicos recomendam o exercício de outras alternativas para promover uma recuperação do paciente frente ao tumor e assim ter uma melhor qualidade de vida. Entretanto, dependendo da agressividade e da força que o tumor se alastra pelo corpo, algumas medidas podem não apresentar o resultado desejado e não conseguem interferir no surgimento de outros agravos. As alterações físicas, psicológicas e sociais desencadeiam uma série de complicações que ampliam o acompanhamento do paciente com outros profissionais.

Uma dessas complicações é a síndrome da anorexia-caquexia, uma complicação severa que é caracterizada pela perda de peso intensa e pelo consumo excessivo de estruturas adiposas e musculares do corpo pelo tumor cancerígeno. Embora seja um quadro mais delicado, é possível o paciente se recuperar da síndrome e conseguir se restabelecer.

O que é a SAC?

A Síndrome da Anorexia-Caquexia é um agravo que surge quando o câncer já está em um estágio avançado de metástase. A própria caquexia já é uma doença isolada, mas que possui uma forte relação em pacientes que estão com câncer. Por ter influência de vários aspectos, o problema é complexo e compreende uma perda de peso brusca do paciente em virtude da perda de massa corpórea e do tecido adiposo do corpo. Essas duas estruturas são responsáveis em absorver e guardar as células de gordura e, com a escassez desses tecidos, as células também se perdem.

80% dos casos de câncer vão passar por essa condição, mas não chega a ser a causa principal de falecimento, podendo até ser sobrepujada. No entanto, 22% desses mesmos possuem relevância na morte do paciente porque o corpo perde muitos nutrientes importantes para restabelecer o organismo. O que difere de uma desnutrição para a complicação é que a desnutrição só há a perda de gordura enquanto o outro agravo atinge a gordura e também o tecido muscular.

Essa perda brusca também pode ocasionar outros males principais:

• Anemia;

• Astenia (enfraquecimento dos musculares e até do sistema nervoso em casos mais específicos);

• Disfunção no sistema imunológico;

• Problemas na metabolização de nutrientes e vitaminas absorvidas no corpo;

• Má-absorção intestinal;

• Desenvolvimento de intolerância alimentar a proteína (o sistema digestivo não consegue mais processas e absorver as células proteicas dos alimentos).

Além da perda de peso, da alteração corporal e da possível aparição de outros males, o paciente com a síndrome da anorexia-caquexia também pode ocasionar sonolências, fácil probabilidade de contrair infecções, desenvolvimento de edemas em virtude da fraca mobilidade dos membros, úlceras comuns nos membros superiores, no tórax e em outras áreas com grande índice de músculo.

Por causa da anemia, a pessoa também pode ficar mais pálida, pois o balanço nitrogenado do corpo fica em caráter negativo e o sistema metabólico tem dificuldade em equilibrar as substâncias processadas e absorvidas no sangue.

Tratamento da complicação

A síndrome da anorexia-caquexia pode ser dividida em dois tipos:

• Fase primária, quando o paciente há dificuldades metabólicas no corpo que resultam em inflamações e outras alterações ou pelo tamanho do tumor ou pela metástase;

• Fase secundária, no qual o paciente já está com perda de peso severa e o intestino sofre ressecção dificultando a absorção dos alimentos.

Embora seja classificada dessa forma, os tratamentos abrangem a melhora nas duas situações. A alimentação e a moderação de remédios são as principais medidas para que o paciente apresente melhora porque essas alternativas são capazes de suster três disfunções principais da complicação: hormonal, nutricional e sensorial.

O primeiro enfoque é com a medicação. A equipe médica recomenda o consumo de remédios com base em Ômega-3, principal substância concentrada de ácidos graxos poliinsaturados que vão desinflamando a camada muscular e evitando que o organismo perca nutrientes e outros agentes responsáveis em realizar o metabolismo, como a insulina. Isso melhora o peso do corpo e ajuda o organismo a diminuir naturalmente o tamanho do tumor cancerígeno.

Outra vantagem é que o uso dos remédios ajuda consideravelmente a fazer a síntese proteica de hematócitos, reduzindo a palidez do paciente e diminuindo o nível de anemia. O corpo sofre uma ação antioxidante, que o deixa mais limpo e propício para melhor circulação de substâncias essenciais para a recuperação.

No lado da alimentação, o cardápio também precisa ter concentração na elevação proteico-calórica. Queijos, leite, ovos, caldo de legumes, iogurte natural batido com frutas secas e sementes, manteiga, leite de coco, sorvetes, geleias de frutas, leguminosas e outros alimentos como batata, inhame e macaxeira precisam constar na dieta do paciente. Tudo isso influencia para um aumento de peso e são produtos mais aceitáveis para consumo.

Administração Colonial Brasileira

A partir de 1530, trinta anos após a descoberta do Brasil por Pedro Álvares Cabral, começou o processo de colonização das terras brasileiras por Portugal. O país, chamado então de Reino ou Estado do Brasil, hoje tem essa época reconhecida como Brasil colônia ou apenas colônia. A Administração Colonial Brasileira feita pelos portugueses compreende os períodos entre esse início do século XVI até o começo do século XIX.

Administração Colonial Brasileira

A necessidade da colonização tinha a ver com as necessidades econômicas de Portugal. Eles precisavam encontrar ouro e prata, além de descobrir quaisquer outras formas de receita, já que o comércio que realizavam no Oriente andava fraco. Outra razão também era as constantes invasões estrangeiras em território brasileiro, o que fez com que os portugueses buscassem na colonização uma forma de controle do local. As invasões consistiam principalmente em expedições da Holanda, Inglaterra e França, que queriam o pau-brasil encontrado por aqui, valioso para os europeus.

As capitanias hereditárias

Qualquer estudo da administração colonial brasileira vai se focar, a princípio, nas capitanias. O rei Dom João III implementou esse sistema em 1534, já conhecendo-o das colonizações africanas.

O território total do Brasil foi dividido em 15 partes, com linhas paralelas ao “círculo do Equador”. A divisão dos quinhões era feita desde o litoral até o meridiano de Tordesilhas, e cada parte era doada a um capitão-donatário. Eles possuíam direitos e deveres, que estavam dispostos em documentos como a Carta de Doação e o Foral. A maioria desses capitães era de funcionários civis ou militares, ou fidalgos.

Alguns dos direitos que as capitanias conferiam eram:

– Hereditariedade (as terras poderiam ser passadas de pai para filho)
– Administração local (incluindo gestão de justiça, da agricultura, dos impostos etc)
– Doação de sesmarias (terrenos abandonados)
– Aprofundamento da colonização (por exemplo, com a criação de vilas)
– Escravização de indígenas
– Exploração livre das minas

Esses direitos existiam como forma de atrair os donatários, já que o investimento nas capitanias seria exclusivamente deles – tudo isso foi criado porque Portugal não conseguiria colonizar o Brasil todo com os próprios recursos. Ainda assim, esse sistema não deu certo por uma série de razões.

Para começar, muitos donatários não tinham a capacidade ou o interesse de investir nas capitanias. Além disso, havia uma distância muito grande entre a colônia e a metrópole portuguesa, uma grande quantidade de terras improdutivas e muita hostilidade por parte dos povos nativos, o que ocasionava diversos conflitos.

As únicas capitanias que deram certo foram as de Pernambuco e São Vicente, devido à sua boa produção de açúcar. Com o restante do sistema falhando, a administração colonial brasileira precisou encontrar outra maneira de seguir com a colonização.

Governo Geral

Entre 1548 e 1549, a Coroa Portuguesa estabeleceu o Governo Geral. O objetivo agora era centralizar o poder, para que o governo pudesse ajudar e integrar as capitanias.

Salvador foi escolhida como cidade sede do Governo Geral, e Tomés de Sousa foi nomeado como primeiro governador-geral. Tomés tinha a obrigação de agir em nome do rei de Portugal, para desenvolver o projeto colonizador. Suas ações incluiriam o combate às tribos indígenas hostis, o desenvolvimento das forças coloniais contra invasores externos, a realização de expedições para encontrar riquezas minerais, promoção de conversão ao catolicismo e fiscalização das capitanias.

Para ajudar o governador, cargos como os de capitão-mor, ouvidor-mor e provedor-mor foram criados. Esses funcionários eram homens ricos, proprietários de terras, juízes ou homens de confiança no geral. Além deles, a instituição Igreja Católica teve um papel fundamental na colonização.

Haviam muitos caminhos a serem tomados pela Igreja para a difusão dos ideais católicos. A evangelização dos índios era um deles, claro, mas o clero também era responsável pela educação dos colonos dali para frente. Além dos ensinamentos religiosos, essa educação transmitia muitos valores e comportamentos europeus.

O sistema do Governo Geral ficou em voga até a vinda da família portuguesa ao Brasil em 1808. A capital continuou sendo em Salvador, na Bahia, até 1763, quando foi transferida para o Rio de Janeiro por razões estratégicas. Depois da mudança de 1808, a colônia não durou mais muito tempo, tendo sido dissolvida em 1822.

Durante o tempo em que a administração colonial brasileira ficou ativa, o governo enfrentou algumas dificuldades, como as invasões holandesas em 1630, ou os conflitos e revoltas de diversas camadas sociais, como no caso da Inconfidência Mineira em 1789. Mas, ainda assim, também houve épocas muito boas para os portugueses, como o Ciclo do Ouro no século XVIII, após as descobertas das primeiras minas de ouro. Os bandeirantes também ajudaram na expansão territorial, e algumas cidades mineiras se desenvolveram significativamente, tanto no âmbito econômico quanto no cultural e religioso. Foi para acompanhar esse desenvolvimento no sudeste que a capital foi transferida de Salvador para o Rio de Janeiro, na verdade.

A Fé e a Arte: A Igreja Anglicana e o Cinema São Luiz

Há 180 anos a Igreja Anglicana chegou a Recife, conhecida pela população como “’igrejinha dos ingleses”. A Holy Trinity Church iniciou suas bases brasileiras em 1838 onde hoje é o Cine São Luiz. Com uma população em média de 200 mil habitantes e uma pequena, mas expressiva colônia inglesa, as orações anglicanas eram feitas num prédio pequeno pelo primeiro ministro da igreja anglicana, G. Tuckins.

A Fé e a Arte: A Igreja Anglicana e o Cinema São Luiz

A primeira Igreja Anglicana do Recife ficava na antiga Rua Formosa, atual Avenida Conde de Boa Vista, esquina da Rua Aurora com o Rio Capibaribe e com uma beleza arquitetônica única. Com 12 metros de largura e 17 de extensão, um santuário com duas sacristias, mas que foi demolido pelo plano de expansão urban. Foi erguido o Edifício Duarte Coelho, imponente prédio de 13 andares e onde foi construído o primeiro cinema de Recife.

Como surgiu a Igreja Anglicana

A Igreja Anglicana nasceu no período da Reforma Protestante, através do Rei Henrique VII da Inglaterra. O monge alemão Martinho Lutero firmou suas ideias reformistas contra as indulgências católicas de onde foi julgado como herege e exilado. Lutero traduziu a Bíblia para o alemão, já que só era permitida sua escrita em latim e liderou inúmeras revoltas contra os votos monásticos, adorações e a formação de cultos que consumou o rompimento definitivo dele e de outros monges com a igreja.

De rebeliões ideológicas surgiram lutas armadas e mais caminhos foram abertos na França com João Calvino e na Suíça com Ulrico Zuínglio. Mas na Inglaterra os caminhos foram um pouco diferentes, embora também ligados a reforma, já que Henrique VIII era católico e defendia a Igreja Romana. Casado com Catarina de Aragão, Henrique VIII queria um filho homem para sucedê-lo ao trono e pediu a anulação do casamento por não conseguir com a esposa. O Papa Clemente VII recusou a anulação e mesmo assim Henrique se separou de Catarina e casou com Ana Bolena, sendo excomungado pela igreja católica e iniciou sua própria, o Anglicanismo.

Essa ação ajudou a cortar o poder da Igreja Católica, que estava acima do poder absolutista monárquico e com o rompimento, todos os bens da igreja passaram para a nobreza. Houve um aumento da produtividade e riqueza do país com o uso das terras, além do apoio de nobres e plebeus.

O Ato de Supremacia precisou ser votado pelo Congresso e só confirmou que Henrique VIII e seus descendentes seriam os sucessores da liderança da nova igreja, chamada de anglicanismo. Quem não se submetesse ao anglicanismo seria perseguido excomungado, obrigando a todos a assistir cultos e não mais missas, onde nomes relevantes da história inglesa foram mortos.

Seu sucessor Eduardo VI manteve a religião, mas a rainha Maria I teve uma breve reconciliação com Roma, que seguiu também no início de reinado de Elizabeth I, mas que logo voltou ao anglicanismo que também sofreu reformulações em sua estrutura e permaneceu em todos os reinados posteriores.

No Brasil a Igreja Anglicana chegou ao Brasil junto com a corte portuguesa, através do Tratado de Comércio e Navegação que permitia a Inglaterra trazer missionários para o país. O acordo impedia a construção de templos e só permitia cultos realizados em inglês, voltados para a sua comunidade. A primeira capela anglicana foi construída no Rio de Janeiro, chamada Christ Church, seguidas por duas em Minas Gerais.

De Igreja à Cinema

Em Recife, a primeira igreja anglicana foi construída em 1838, já que havia muitos ingleses morando na cidade. A “igrejinha dos ingleses” obedecia a arquitetura de seu país de origem e aspectos suntuosos e delicados, inclusive com ladrilhos que formavam uma bela pintura em mosaico e com uma janela de vidro colorida. A mármore branca se destacava ainda mais sob o sol de Recife vindo de oito outras janelas.

Porém, sob as ordens do Prefeito Pelópidas da Silveira seguido por Clovis de Castro, foi necessário demolir o templo para a expansão das vias urbanas. No local foi construído o Edifício Duarte Coelho, com 13 andares sendo quatro ocupados pelo Cine São Luiz, pertencente ao grupo Luiz Severiano Ribeiro.

A inauguração do cinema foi em 06 de setembro de 1952, com as mais modernas instalações da época e símbolo do luxo na capital. Com mil lugares, o local era frequentado pela nata da sociedade Pernambucana, palco de grandes lançamentos e eventos, sendo o primeiro filme exibido “O Falcão dos Mares”, com Gregory Peck.

Um dos maiores clássicos do cinema nacional também teve sua estreia no Cine São Luiz, “O Canto do Mar”, de Alberto Cavalcanti, que na época não foi devidamente valorizado e compreendido. A data de 03 de outubro de 1953, dia do lançamento, foi marcante por também ser do assassinato de um deputado em frente ao local.

Em sua entrada o Cinema São Luiz apresentava um painel do artista Lula Cardoso Ayres, escudos e brasões no balcão, no teto da plateia detalhes florais e no palco dois vitrais de Aurora de Lima formavam a decoração do local.

Sua época de ouro foram nos anos de 1960 a 1980, com exibição de filmes para a juventude e outros que atraiam filas e lotação máxima, com pessoas sentadas em escadas. Mas na década de 90 o cinema começou a entrar em decadência onde os cinemas de bairro iam desaparecendo e teve uma breve esperança com o lançamento de Titanic em 1997. Em 2007 o grupo Luiz Severiano Ribeiro fechou o cinema, mas o prédio foi tombado como monumento histórico da Fundação do Patrimônio Histórico e Artístico de Pernambuco.

Ele voltou a ser reaberta em 2009 por incentivo do Governo estadual e agora de posse de todos os cidadãos pernambucanos. Mantendo sua beleza e imponência original, o local foi reformado e os equipamentos modernizados, dando uma nova direção ao local, oferecendo preços populares para os cidadãos e uma programação mais ampla.

Batalha de Salamina

A Batalha de Salamina é um marco na história mundial por ser considerada a mais mortal e sangrenta da história entre as batalhas marítimas. Nela os militares da Grécia, em número muito menor e menos armados, venceram o poderio dos persas liderados por Xerxes, considerado um grupo imbatível. As 360 embarcações gregas enfrentaram estrategicamente as 600 embarcações persas e saíram vitoriosas após oito horas de combate.

Batalha de Salamina

Dos 40 mil homens mortos, um terço era persa e Xerxes assistiu à derrota sentado num trono próximo ao ocorrido, de onde viu os destroços de seus navios e corpos dilacerados de seus marinheiros espalhados pelas águas do mar. Conhecida como inclusa na Segunda Guerra Médica, parte da vitória grega é atribuída ao local, uma região acidentada no estreito que divide Salamina de Ática, de onde os persas tinham pouca maneabilidade no espaço e se viram presos.

A Primeira Guerra Médica

Há indicações de que a Batalha de Salamina ocorreu em 29 de setembro de 480 a.C. no estreito que separa as cidades gregas de Salamina e Ática. A vitória grega foi um marco histórico pelo contexto da guerra e do poder exercido pelo líder persa Xerxes, que detinha mais condições bélicas.

O conflito entre Grécia e Pérsia já era antigo e foi iniciado pela disputa da região da Jônia, na Ásia Menor. A colônia grega de Mileto era dominada pelos persas comandado por Dario 1º e na tentativa de se libertar foram travados os conflitos entre ambos, iniciando a Primeira Guerra Médica que terminou com a vitória grega na batalha de Maratona.

Houve uma trégua de dez anos em que ambos os países se organizaram para uma eminente guerra. A Grécia tinha a liderança do estrategista militar Temístocles, que não só preparou seus militares e ampliou sua frota de guerra, como também construiu uma muralha ao redor de Atenas e do porto de Pireus.

Depois de ter perdido a Batalha de Maratona, mesmo sendo superiores em militares e armas, a Pérsia se manteve focada em avançar contra a Grécia, já com o comando de Xerxes. Os persas construíram uma ponte no Helesponto, na península de Atos, que permitia a passagem de suas tropas com mais facilidade e rapidez.

A Segunda Guerra Médica

Era evidente a intenção de Xerxes em tomar a Grécia e em seguida o Sudeste Europeu, com o desejo da supremacia sobre grandes nações. Para isso ele equipava seu exército com o maior contingente da época e montava estratégias elaboradas de ataque com foco total na conquista.

O exército persa era o mais numeroso da época, mas não era conhecido pela motivação, já que era composto pode pessoas escravizadas pelas nações já conquistadas. Os soldados eram obrigados a lutar pelo seu inimigo.

Enquanto pequenas cidades gregas ao norte se rendiam ao poder persa e eram obrigados e ampliar seu exército, outras reforçavam seu bloqueio militar, especialmente na região sul. O líder Temístocles consultou o oráculo Delfos que profetizou a necessidade de se proteger com uma muralha de madeira, que ficou compreendida como buscar um combate naval cujas embarcações de madeira protegeriam a esquadra.

Logo Temístocles confirmou a profecia já que era praticamente impossível vencer os persas em campos de batalha. As poucas vezes que a Grécia foi vencida, foi nessa situação. Uma batalha histórica que se seguiu ocorreu em Termópilas, com o apoio da cidade grega de Esparta e de um de seus reis Leônidas, que levou 300 homens para o combate.

A estratégia era que esses 300 homens se posicionassem na estreita passagem do desfiladeiro de 15 metros de largura de Termópilas, com a retaguarda de mais 6 mil gregos. Mesmo com um número imensamente superior, a estratégia deu certo com uma dura resistência espartana que não esmorecia com os boatos do contingente persa.

Os soldados persas lutavam a base de chicotes de seus líderes, enquanto os espartanos davam seu sangue para proteger sua cidade, o que fazia toda a diferença e a vitória era questão de tempo. Porém, um traidor espartano chamado Eflaltes ajudou Xerxes a encontrar um caminho diferente para chegar a Termópilas. O traidor guiou a grande tropa para o outro lado das montanhas e conseguiram surpreender os espartanos.

Diante da derrota futura, Leônidas ordenou que os gregos voltassem para suas cidades, menos os 300 espartanos. Os soldados de Téspias e Tebas também se uniram a eles e foram até as últimas consequências na batalha, com a morte de todos e a vitória dos persas mesmo com as falanges de Esparta no estreito desfiladeiro de 15 metros de largura em Termópilas. Essa batalha também se tornou lendária pela forma como Leônidas, um dos reis espartanos e sua guarda pessoal de 300 homens, lutou contra os persas.

A Batalha de Salamina

A vitória persa custou caro para os vitoriosos, que também tiveram muitas baixas e precisaram se recompor. Enquanto isso os gregos esvaziaram Atenas para uma invasão evidente e reforçaram seus bloqueios militares. Os moradores de Atenas foram transferidos para a cidade de Salamina e a cidade vazia foi queimada e devastada pelos inimigos.

Os gregos acreditavam que a próxima batalha seria a última chance de manter seu país livre e a frota se posicionou no estreito braço do mar da ilha de Salamina. Temístocles planejou que os gregos atraíssem os persas para uma batalha naval. Os navios gregos eram menores em dimensão e quantidade, o que foi positivo para a região acidentada e de difíceis manobras, enquanto os navios persas eram grandiosos demais para qualquer movimento mais imediato e os navegantes não conheciam o local.

Os persas ficaram oprimidos naquele local enquanto os navios gregos os atacavam, na que é ainda hoje considerada a batalha naval mais sangrenta de todos os tempos. Com duração de 8 a 12 horas, os gregos saíram vitoriosos e Xerxes fugiu para a Pérsia, onde foi assassinado em seguida.

A estratégia vitoriosa de Temístocles é estudada até hoje e marcou o fim das guerras persas. Além de garantir à Grécia a liberdade, também impediu uma expansão dos persas pela Europa, que fatalmente destruiriam as culturas grega e romana e mudariam os acontecimentos que se seguiram.

Mel e Abelhas Brasileiras

No Brasil, há uma razoável diversidade de abelhas e do mel que elas produzem. José de Anchieta já percebeu isso em suas viagens no século XVI, quando registrou, até o momento, cerca de 20 espécies de abelhas brasileiras. Notou que elas produziam seu mel e cera de formas também variadas, desde usando troncos de árvores até abaixo da terra. Em alguns casos, o mel era venenoso – especificamente o chamado pelos índios de Eiraaquãyeta, que fazia com que as pessoas passassem mal. Outro viajante, Auguste de Saint’Hilaire, também escreveu sobre esse e outros tipos de mel descobertos em terras brasileiras.

Mel e Abelhas Brasileiras

Apesar da descoberta longínqua desde os índios, nem o mel nem a cera proveniente das abelhas nativas foram sempre bem utilizadas. Nos primeiros três séculos depois do descobrimento do país, alguns estudiosos defendem que a Uruçu era a espécia brasileira mais utilizada no país, mas outros documentos apontam que, na verdade, a cera mais comum nessa época vinha da África.

Já no século XIX, por volta de 1850, o estudo das abelhas brasileiras ganhou destaque sob o nome do farmacêutico Theodoro Peckolt, que observava as abelhas sociais, Trigonildas. Sua pesquisa serviu como objeto de estudo também de um pesquisador britânico, Frederic Smith. Entretanto, Peckolt notou que um ou outro mel indígena não apresentava sacarose, e isso fez com que a produção proveniente de abelhas nativas não fosse incluída na Farmacopeia Brasileira.

Pouco depois, Frederico Augusto Hannemann trouxe as abelhas europeias ao Brasil, sendo então considerado o “pai das abelhas”. Em sua fazendo Abelina, no Rio Grande do Sul, ele produziu por anos um mel muito popular, e o sucesso das europeias acabou fazendo com que os estudos sobre as abelhas brasileiras fossem quase completamente esquecidos.

Brasil vs o estrangeirismo do mel

Na década de 1940, farmacêuticos passaram a reestruturar a Farmacopéia Brasileira. Elsior Coutinho publicou, em 1941 na Revista Brasileira de Farmácia, uma defesa das abelhas nativas como produtoras de mel. Ele afirma que deve ser investigada a razão pela qual o mel da espécie estrangeira Apis mellifica é preferível em detrimento do mel brasileiro, produzido por diferentes espécies. Ele declara que o mel feito com abelhas Manda-saia, Jatahy ou Uruçu possuem melhor qualidade em todos os sentidos do que o mel europeu. A consistência, o sabor e o uso de suas propriedades medicinais é superior, então não haveria razão pela qual o mel brasileiro devesse estar excluído do Código Nacional de Farmácia.

Um professor de Farmocognosia do Paraná contra-argumentou Elsior dizendo que não valia a pena o esforço para estudar as abelhas e o mel nativo, pois a produção delas era inferior à produção das estrangeiras. Elsior respondeu que esse era um argumento fraco, proveniente de alguém que nunca havia estado no norte do Brasil, onde as abelhas Uruçu (Melipona Scutelaris) produzem mel encontrado em toda a região. Não haveria, portanto, qualquer déficit econômico em questões de nível de produção.

De qualquer maneira, a discussão sobre esse assunto continuou, mas não houve mudanças significativas na legislação brasileira a respeito das abelhas nativas por muito tempo.

Atualmente

O melhor mel de abelhas brasileiras atualmente vem das Meliponíneas, abelhas indígenas sem ferrão. Elas são superiores às abelhas europeias em todos os aspectos já apontados por Elsior: consistência, sabor, propriedades farmacêuticas e até ambientais. Ainda assim, elas são subjugadas pelo domínio do mel estrangeiro. Os supermercados são lotados do último, enquanto que não é tão simples encontrar mel brasileiro.

O problema é que, mesmo hoje em dia, ainda vivemos sob regulamentos da década de 1950. Eles se baseiam em características das abelhas Apis Mellifera, o que significa que só é considerado mel o que tem propriedades similares ao que é produzido por elas. O mel indígena tem menos açúcares, é mais líquido e essencialmente é diferente, então ele não chega mesmo a ser considerado mel pela legislação. Ou seja, é clandestino, mesmo sendo nacional.

Segundo o professor da USP Paulo Nogueira-Neto, isso acontece por razões burocráticas que também afetam países como México e Venezuela. Até 2004, até o manejo desse tipo de abelha sem ferrão era proibido. Agora, elas podem ser criadas, mas seu mel segue impedido de ser comercializado. A venda do melhor mel brasileiro é, portanto, proibida.

Entretanto, é verdade o que se dizia sobre questões econômicas, pelo menos no que diz respeito às Melioponíneas: essas abelhas realmente produzem menos mel, o que torna o produto final consideravelmente mais caro.

A única maneira que os produtores têm encontrado para tentar trabalhar com essas abelhas, enquanto não há uma legislação que respeite suas características, é desumidificar o mel. Por enquanto, não se sabe se esse processo atrapalha as propriedades antibióticas e o gosto do produto. Os produtores estão presos em um limbo entre tentativas desse tipo e a legislação brasileira, que não avançou nas últimas décadas e ainda dá preferência para o que vem de fora.

Reserva Particular do Patrimônio Natural

Uma Reserva Particular do Patrimônio Natural, ou RPPN, é uma categoria das Unidades de Conservação, instaurada pelo Sistema Nacional de Unidades de Conservação (SNUC).

Reserva Particular do Patrimônio Natural

As Unidades de Conservação são áreas específicas de preservação ambiental, por conta de suas características particulares. Segundo o artigo primeiro da Lei N. 9.985, são espaços territoriais com recursos e características naturais relevantes. Sua proteção legal existe com o objetivo de manter o patrimônio biológico brasileiro, ao proteger os diferentes ecossistemas, habitats e espécies de animais presentes em cada uma dessas áreas.

A Reserva Particular do Patrimônio Natural é uma categoria dentre essas, portanto continua sendo um local de preservação. Elas ainda tem como objetivo a conservação e proteção de patrimônio ambiental, recursos hídricos e naturais, equilíbrio ecológico e climático, beleza e ambientes históricos. A educação, pesquisas científicas e o ecoturismo também são razões importantes. A grande diferença é que, neste caso, a área natural não fica sob o domínio do Estado, mas sim de um poder particular que tenha interesse no investimento.

Como funciona uma RPPN

O Decreto 98.914, em 1990, permitiu a criação desse tipo de reserva. Depois, o decreto mudou para o de número 1.922/1996, e então a RPPN foi considerada uma das categorias das Unidades de Conservação depois da publicação da lei N. 9.985, em 2000. Atualmente, elas são regidas pelo Decreto nº 5.746/2006.

Uma RPPN é definida como tal pela vontade voluntária de seu proprietário, seja ele uma pessoa física ou jurídica. Ele ou ela deve se encaminhar para o órgão ambiental estadual ou municipal, se for o caso, ou para o ICMBio, quando a reserva pretende ser de âmbito federal. Os documentos necessários são um requerimento da criação da RPPN, cópias autenticadas da identidade do proprietário e cônjuge se houver (ou do procurador no caso de pessoas jurídica), cópia do certificado do cadastramento no CNIR, prova de quitação do ITR, planta da área total da propriedade com indicação do que virá a ser a reserva, entre outros. O órgão ambiental procurado vai solicitar todas essas informações.

Se o terreno possuído, rural ou urbano, apresentar potencial para se encaixar como terreno de conservação, ele estará em condições de ser classificado como RPPN. Depois de solicitada a avaliação, um laudo técnico será emitido, informando se o local é apropriado. Quando isso acontecer e o proprietário concordar, não há mais como voltar atrás: a proteção ambiental é perpétua. A propriedade continua sendo privada, entretanto.

Como é uma ação voluntária do proprietário, é ele também que decide qual exatamente a área que será considerada uma reserva. Não um tamanho mínimo ou máximo. Depois que a região já for uma RPPN, apenas uma lei dentro do SNUC poderá reduzir o tamanho original.

Os donos de uma Reserva Particular do Patrimônio Natural também ganham alguns benefícios quando decidem dar essa classificação para seus terrenos. Entre eles, estão:

– O direito mantido de propriedade
– Inclusão na Confederação Nacional de RPPN e na Associação de Proprietários de Reservas Particulares de Minas Gerais (Arpemg)
– Cooperação com entidades públicas e privadas na proteção, manejo e gestão da RPPN, se for assim desejado
– A isenção do ITR, Imposto Territorial Rural, no que for referente à área da RPPN
– A prioridade na análise de eventuais projetos pelo FNMA, Fundo Nacional de Meio Ambiente
– A preferência na análise de eventuais pedidos de crédito agrícola pelas instituições de crédito, em qualquer propriedade que incluir uma RPPN
– Aumento das possibilidades de apoio de órgãos governamentais para fiscalizar e proteger a área

Por isso, é do interesse de muitos proprietários transformar seus terrenos em RPPN.

Quantas RPPNs existem no Brasil?

Atualmente, há cerca de 640 unidades de Reserva Particular do Patrimônio Natural no país. O número vem do Sistema Informatizado de Monitoria de RPPNs, o SIMRPPN. A maior área protegida está no Mato Grosso, com 172.980 hectares dispostos em 15 reservas particulares. Apesar disso, o estado com o maior número de reservas é a Bahia: são 102 delas, cobrindo um total de 46.817 hectares. Minas Gerais fica em segundo lugar no quesito quantidade, com 88 reservas.

Exemplos:

– Reserva Natural Salto Morato, Guaraqueçaba (PR)
RPPN federal, mantida pela Fundação Boticário, ocupa 2.253 hectares e possui centenas de espécies de animais, inclusive alguns ameaçados de extinção. Oferece centro de pesquisas e programas de educação ambiental. Moradores locais têm entrada gratuita.

– RPPN Sesc Pantanal, Barão de Melgaço (MT)
Possui mais de 106 mil hectares e é considerada por muitos como a RPPN com o melhor manejo no Brasil. Também conta com centenas de espécies de animais de todos os tipos.

– Reserva Rio das Furnas, Alfredo Wagner (SC)
Renato Rizzaro e Gabriela Giovanka são os proprietários da área, que é fechada ao público. O acesso é restrito aos pesquisadores, que tem como objetivo maior estudar a variedade de fauna local.

Serpentes

Popularmente conhecidas como cobras, as serpentes são répteis de sangue frio. Fazem parte do filo Chordata, classe Reptilia e ordem Squamata (possuem escamas). Embora não tenham patas, esses animais conseguem se locomover, com rapidez, deslizando o corpo alongado. Algumas vivem em ambientes terrestres, enquanto outras são aquáticas, moram em rios e mares. São animais ectotérmicos, porque a temperatura do corpo varia conforme o ambiente onde estão.

Serpentes

Em regiões de climas quentes, prevalecem as espécies endêmicas ovíparas, aquelas que colocam ovos, tais como a falsa coral e as pítons. Onde o clima é temperado, vivem as serpentes vivíparas, que mantém os filhotes dentro do corpo durante o período de gestação, como a jiboia, sucuri, cascavel e jararaca.

Nem todas as serpentes venenosas são consideradas peçonhentas, pois várias espécies não possuem dentes para inocular o veneno. A maior parte dos casos de ofidismo, acidentes envolvendo cobras peçonhentas, no Brasil, está relacionada a picadas de jararacas. Outras cobras venenosas bastante conhecidas são a cascavel e coral verdadeira. Porém, a maioria das serpentes brasileiras não é venenosa. Cerca de 30% das cobras encontradas no Brasil são classificadas como peçonhentas.

Características gerais das serpentes

1. Mandíbula: as serpentes possuem enorme capacidade para abrir as mandíbulas. Com isso, elas conseguem engolir presas grandes, muitas vezes, maiores do que elas próprias. Isso é possível porque a mandíbula das serpentes possui articulação dupla, o que possibilita tamanha abertura da boca. As duas partes da mandíbula estão presas somente a um ligamento, o qual, por ser muito elástico, possibilita uma grande abertura. Dessa forma, as serpentes ingerem as presas com facilidade.

2. Ausência do esterno: serpentes não possuem o esterno, osso existente em animais vertebrados, cuja função é unir as costelas. As cobras possuem cerca de 300 costelas e, como elas ficam livres, elas conseguem expandir o diâmetro do corpo ao engolir grandes presas. Durante esse processo, as serpentes não ficam sufocadas, sem ar, porque existe uma abertura na traqueia, abaixo da língua. Essa característica garante às serpentes a capacidade para respirar enquanto ingerem as presas.

3. Digestão longa: as serpentes, após se alimentarem, precisam de um tempo longo para conseguir digerir a presa, principalmente, quando essas são maiores do que elas. O sistema digestivo das serpentes consegue digerir praticamente todas as partes da presa, eliminando somente as garras e pelos dos animais engolidos. Após completar a digestão, as serpentes eliminam os restos de alimento e o ácido úrico.

4. Sentidos: como não possuem canal auditivido (ouvidos), as serpentes conseguem identificar os barulhos através das vibrações captadas no solo. Serpentes possuem língua bífida, ou seja, uma língua dividida em duas partes, responsável por dois sentidos das cobras, olfato e o tato. Tocando a língua na superfície, as serpentes captam partículas que mostram o rastro de presas e possibilitam reconhecer o sexo de outras cobras (macho ou fêmea). O mecanismo que possibilita essa identificação é o órgão de Jacobson, formado por orifícios, no céu da boca das serpentes, e conectados às estruturas olfativas. Entre os olhos e as narinas das serpentes, existe uma depressão denominada fosseta lacrimal ou loreal, que capta as oscilações da temperatura ambiente. É mais uma característica que ajuda as serpentes a perceberem a presença de outros animais.

Serpentes peçonhentas

As serpentes peçonhentas possuem glândulas de veneno na cabeça. Um canal liga essas glândulas aos dentes situados no maxilar superior, por onde sai o veneno, na hora do ataque. O veneno de cobra possui neurotoxinas, substâncias que destroem o sistema nervoso da presa, hemotoxinas, que provocam hemorragia, e enzimas proteolíticas, que causam danos aos tecidos. Outra substância potente é a miotoxina, que destrói as células dos músculos.

As najas, por exemplo, além de injetar o veneno, são capazes de lançar um jato de veneno até três metros de distância. Não é à toa que as najas também são chamadas de serpentes cuspideiras.

Serpentes áglifas, como a sucuri e a jiboia, não possuem dentes para inocular veneno. Matam a presa por constrição, ou seja, elas se enrolam no corpo do animal abatido, o que provoca a paralisação do fluxo de sangue. Sem circulação sanguínea normal, o oxigênio não chega ao coração e ao cérebro, por isso, as presas morrem.

Serpentes solenóglifas e proteróglifas possuem dentes injetores de veneno. Fazem parte do grupo das solenóglifas, cobras como a cascavel, surucucu e a jararaca, as quais, ao atacar a presa, inoculam potentes venenos. A coral verdadeira pertence ao grupo das proteróglifas.

Após a picada de cobra, é importante não movimentar o corpo para não espalhar o veneno. A vítima deve ser levada, o mais rápido possível, ao hospital ou pronto-socorro para receber o soro antiofídico. Não amarre nem faça cortes no local da picada. Também não aplique medicamentos sobre a lesão. A única coisa a fazer é buscar ajuda médica o quanto antes.

Para evitar acidentes, é necessário usar botas de cano alto, ao percorrer áreas de mata. Ao fazer limpeza em quintais e locais com muito entulho, use luvas grossas e longas, mas não introduza as mãos em buracos, canos e lugares escuros que possam servir de esconderijo para cobras.

Período Simples e Composto

A sintaxe é dividida em vários elementos e, entre eles, estão o período simples e composto. Essas duas estruturas da Língua Portuguesa são posteriores ao estudo da frase e oração e permitem o entendimento de todo o contexto, através do que é conhecido como ‘ação verbal’. A diferença entre ambas é a quantidade de orações: uma (período simples) ou mais (período composto).

Período Simples e Composto

Para entendermos melhor como os dois elementos funcionam, precisamos entender onde eles se encaixam. Primeiramente há a frase, na qual haverá uma mensagem através de um enunciado. A palavra ‘obrigado’, por exemplo, por si só já constrói uma frase. Quando há a presença de um verbo (ou ação), denominamos essa estrutura de oração, como ‘estou lendo este artigo’. Conhecendo ambos os conceitos, passamos ao entendimento de período simples e composto.

Período simples ou oração absoluta

Também conhecido como oração absoluta, o período simples contará com apenas um verbo. Nesse caso, haverá apenas um sentido completo, discriminado sintaticamente dentro da frase, independentemente do tempo verbal. Aqui, não há segredos: uma frase estruturada com uma ação será, definidamente, um período simples ou oração absoluta.

Para ficar mais claro, trazemos alguns exemplos dessa estrutura linguística:

– Começamos logo pela manhã (ação: começamos)

– Já estou aqui (ação: estou)

– Ele aparecerá na televisão (ação: aparecerá)

– Quanto lhe devemos? (ação: devemos)

– Preciso estudar (ação: preciso)

– Você teve a oportunidade (ação: teve)

Período composto

Como dito, a grande diferença entre período simples e composto é o número de orações: o primeiro conta com apenas uma e o segundo com duas ou mais. Quando falamos desse tipo de frase com sentido completo, precisamos dividir em vários tópicos, pois, diferente do período simples, há várias características próprias do composto.

O período composto pode ser dividido em três estruturas hierárquicas: o ‘período composto por coordenação’, o ‘período composto por subordinação’ e o ‘período composto por coordenação e subordinação’. É importante destacar cada um devido a suas nuances próprias dentro da sintaxe.

• Período composto por coordenação
Nesse caso haverá duas ou mais orações que serão coordenadas, ou seja, possuirão própria autonomia dentro da frase, e ajudarão para criar o entendimento total do que quer se expressar.

Exemplo: quero chegar logo e comer muito (as ações são: chegar e comer).

Contudo, períodos compostos coordenados podem ser divididos em cinco estruturas de ideia na relação entre primeira e segunda oração: as que explicam, concluem, alternam, somam, opõe ou adicionam. Entenda:

– Coordenada explicativa: quero chegar logo porque estou com fome.

– Coordenada conclusiva: estou com fome, por isso quero chegar logo.

– Coordenada alternativa: ou chego logo ou fico com fome.

– Coordenada aditiva: quero chegar logo e comer muito.

– Coordenada adversativa: mesmo se chegar logo não vou comer muito.

• Período composto por subordinação
Avançando nos estudos, teremos o período composto por subordinação. Nesse caso, as orações se complementam e são interdependentes. Ou seja: o sentido de toda a mensagem precisa que a primeira oração seja relacionada com a segunda (e as demais, se necessário).

Elas podem ser divididas em substantivas (subjetiva, objetiva direta, objetiva indireta, completiva nominal, predicativa, apositiva), adverbiais (casual, consecutiva, final, temporal, condicional) e adjetivas (explicativa e restritiva).

Cada uma delas conta com características próprias e são apresentadas de acordo com a principal oração, tempo verbal, objeto direto ou indireto, predicativo, esclarecimento, restrição, entre outros pontos.

Alguns exemplos de períodos compostos por subordinação:

– Ela soube o que nós fizemos.

– Procurando muito encontrei, mas já tinha perdido muito tempo.

– Daqui um tempo você perceberá que isso sairá em todos os jornais.

– Compre mais barato para vender por um preço maior.

– O João, que venceu o concurso, é o mais capacitado para o cargo.

• Período composto por coordenação e subordinação
Há, ainda, um terceiro caso, que unirá as duas estruturas de oração anteriormente explicadas aqui: o período composto por coordenação e subordinação. Ele funciona da seguinte forma: a oração principal será a referência de duas (ou mais) orações subordinadas e duas (ou mais) orações coordenadas.

Para entender melhor, utilizamos de um exemplo:

– É importante que ele chegue a tempo e devolva meu dinheiro.

Ou seja: quando pegamos a oração que diz ‘que ele chegue a tempo’, não tem relação com a segunda oração ‘(que ele) devolva meu dinheiro’, mas as duas estão subordinadas a primeira oração que aqui é discriminada como ‘É importante’.

Concluindo, ao entender como funciona o período simples e composto, suas estruturas básicas e as formas de serem aplicadas na Língua Portuguesa, o método recomendado é a realização de exercícios (principalmente nos compostos), que ajudem a fixar o entendimento de cada um deles. Sem segredos, ao contar o número de verbos (ações) dentro de uma oração, você terá a facilidade de entender qual dos dois períodos ela se aplicará.

Lembrando que esse conteúdo é voltado à sintaxe do nosso idioma e, dessa forma, estudar e conhecer outros elementos do Português contribui para o entendimento mais rápido do funcionamento da língua.

Ácido Fluorantimônico

O ácido fluorantimônico, que é representado através de sua fórmula molecular HSbF6, pode não ser conhecido da maioria das pessoas, mas ostenta um título grandioso: o ácido mais potente encontrado no nosso planeta pela Química Moderna. Através da reação exotérmica entre fluoreto de hidrogênio e antimônio pentafluoretado – ou seja, a junção dos compostos tem a origem do seu nome – essa substância é altamente corrosiva.

Ácido Fluorantimônico

Com uma acidez superior a mil vezes a do ácido sulfúrico puro, o ácido fluorantimônico possui algumas características peculiares até para os próprios profissionais químicos: não é inflamável, reagindo com quase todos os solventes orgânicos, decompondo-se rapidamente e causando explosões quando solúvel em água – em estado de ebulição ele também é decomposto. Sua forma de base pode ser relacionada a um xarope incolor.

Mas, como a Química chegou a definir esse como sendo o ácido mais forte do mundo? Através da conceituação de ‘superácidos’: qualquer componente que supere em 100% o ácido sulfúrico se enquadra nessa categoria. Para entender bem o que é, quais as propriedades e o que representa o ácido fluorantimônico, trazemos um resumo sobre o componente.

O ácido mais forte do mundo

O primeiro passo para entendermos como funciona a classificação da ‘potência’ de acidez de um componente, é compreendermos quais são suas propriedades físico-químicas: quanto mais íons do tipo H conter um ácido, mais reagente ele será quando interpelado a outras substâncias. Em relação ao sulfúrico, o ácido fluorantimônico possui uma ordem abstrata de íons 20 quintilhões de vezes a mais, comparado ao ‘rival’.

Para se ter uma ideia de como essa substância é potente, ela ultrapassa qualquer escala convencional de pH – conhecida como a equação de Henderson-Hasselbach. Para isso, é preciso muito mais: a utilização da função de acidez de Hammet, que determina uma escala descrente negativa – ou seja, quanto menor for o número, mais potente é o ácido. No caso do fluorantimônico, seu HO é -31,3, contra -12 do ácido sulfúrico.

Conhecendo esse gigante corrosivo, você deve estar se perguntando: e na prática, onde é utilizado o ácido fluorantimônico? Devido a suas características próprias, esse tipo de substância tem papel importante em situações que dependem da reação com outras moléculas que, utilizado por elementos com acidez menor, não causariam nenhum efeito.

Os principais usos do ácido fluorantimônico estão voltados à forma de catalisadores de reações orgânicas e isso é primordial, principalmente, para a indústria de extração de petróleo. Isso porque não há outro reagente com esse recurso fóssil que não seja da ordem dos superácidos, sendo amplamente utilizado por essas indústrias.

Suas aplicações corriqueiras no setor petrolífero são: gaseificação do carvão mineral e quebra de moléculas oriundas do chamado ‘petróleo cru’, que irá criar uma composição plástica altamente resistente, além de octanos gasosos que não contêm chumbo. Esses processos, geralmente, são feitos por máquinas ultramodernas e não apresentam risco à saúde dos operadores.

Curiosidades sobre superácidos

Apesar de não ser muito comum, o ácido fluorantimônico ainda possui diversas características que, além de darem o título de elemento químico mais corrosivo do mundo, mostram sua importância ao longo da história da Química Moderna. Para se ter uma noção, ele é superior a outros ácidos que são amplamente corrosivos, como:

– ácido trifluormetanosulfônico: também muito mais potente que o sulfúrico, essa substância é utilizada em reações orgânicas, como na indústria de petróleo, como catalisador;

– carborano superácido: uma junção entre carbono, hidrogênio e boro em que suas reações são superácidas;

– ácido mágico: uma junção entre dois tipos de ácidos – o fluorossulfônico e pentafluoreto de antimônio, extremamente explosivo ao reagir com a água.

Mesmo com todos sendo bem superiores ao sulfúrico, as substâncias acima descritas podem ocupar ‘boas posições’ em níveis de acidez, mas ainda ficam atrás do ácido fluorantimônico. Com toda essa potência é importante destacar que esse elemento é guardado em locais específicos, evitando maiores complicações.

Os recipientes que recebem o fluorantimônico são feitos de PTFE (politetrafluoretileno), semelhantes aos recipientes plásticos mais comuns que encontramos em qualquer estabelecimento. A diferença entre os polímeros é que o PTFE, ao invés de ser composto por hidrogênio, como as embalagens convencionais, possui a composição de flúor – o que evita a reação junto ao superácido.

Mas ele pode corroer tudo? Não. Apesar do ácido fluorantimônico ser o mais potente conhecido, não significa que ele irá ‘furar’ ou ‘corroer’ sempre que entrar em contato com alguma superfície – ou, de outra forma, ele não seria envasado e utilizado na indústria petrolífera. Sua ação corrosiva depende da reação química com a substância na qual ele entrar em contato.

No caso da água, como já citado, ele irá se decompor, mas antes causa uma reação altamente explosiva. Em materiais orgânicos, como em contato com o nosso corpo, traz danos irreversíveis em poucos segundos. Por isso, ele é restritamente vendido para setores específicos que irão utilizar o superácido mais potente do mundo da forma correta.

Guerras Púnicas

Desde o momento que o homem deixou de ser nômade, especialmente devido à agricultura que permitiu que deixasse de ser coletor, as brigas por território e por controle dos mesmos se tornou uma regra nas mais diversas partes do mundo, ou seja, ocorreram na Ásia, África, Europa e, mais tarde, nas Américas.

Guerras Púnicas

No entanto, houve guerras por controle de territórios que influenciaram de maneira ímpar a geopolítica atual, e justamente por isso estão presentes – até porque seria praticamente impossível inserir todas as guerras no currículo de história dos níveis fundamentais e médio de ensino. Esse é o caso das Guerras Púnicas.

Contexto histórico

Os conflitos em questão duraram exatos 100 anos, se estendendo de 264 a.C a 164 a.C., ou seja, trata-se de um evento histórico que ocorreu na Antiguidade. Fala-se de guerras, no plural, pois essas consistem em uma série de três conflitos que modificaram consideravelmente a geopolítica da Sicília (Itália) e do Mediterrâneo.

O estopim do conflito foi a rivalidade existente entre Roma, grande potência da Antiguidade, e Cartago, outra grande potência, localizada no norte do continente africano. Cartago tinha grande poder, e controlava todo o comércio realizado no Mediterrâneo. Por isso seus comerciantes tinham colônias espalhadas por toda a região, incluindo Sardenha, Sicília, extremamente rica na produção de grãos, Península Ibérica (territórios que atualmente correspondem a Portugal e Espanha, na qual era feita a exploração de prata) e, claro, por toda a África. Aliás, é por causa de Cartago que tais conflitos são conhecidos como Guerras Púnicas, uma vez que os romanos chamavam os cartagineses de “punici”, que significa “fenícios”.

Dessa maneira, a Sicília era habitada por muitos cartagineses, em conflito constante com os gregos presentes nas colônias gregas Nápoles e Taranto. Tendo como premissa a hegemonia dos romanos na época, eles conquistaram os portos do sul na península itálica, fazendo com que os interesses das colônias gregas passassem a ser também seus interesses. Assim, os conflitos entre romanos e púnicos na verdade se basearam na intervenção de Roma, na rivalidade entre gregos e cartagineses.

As guerras e consequências

Conforme dito acima, houve três guerras entre cartagineses e romanos, e são elas que estão descritas abaixo.

-1° Guerra: ocorreu entre 264 a.C. e 241 a.C. Na verdade, tratou-se de uma batalha naval na qual Roma saiu vitoriosa. O que é interessante notar é a inteligência dos romanos, pois Cartago era a principal potência marítima da época, ou seja, praticamente impossível de serem derrotados em mar. No entanto, com a ajuda dos gregos, os romanos conseguiram não só reproduzir os barcos utilizados pelos cartagineses como também inventar as pontes, um projeto de engenharia relativamente simples, mas que permitia que os romanos entrassem nos barcos inimigos, permitindo o combate corpo a corpo. Iniciou-se com a intervenção romana em Messina e terminou com a conquista romana de Córsega, Sardenha e Sicília;

-2° Guerra: o protagonista desse conflito, que se desenrolou entre 218 a.C. a 201 a.C., foi o general cartaginês Aníbal Barca, que não só conseguiu diversas conquistas sobre Roma como também realizou o feito de atravessar os Alpes, complexo montanhoso que corta grande parte dos países europeus, marcados pelo clima intenso e grandes altitudes. Diante das derrotas consecutivas, Roma decidiu atacar Cartago, fazendo com que o general tivesse que voltar a sua cidade para protegê-la. Mais uma vez, Roma saiu vitoriosa e conseguiu o controle sobre a Península Ibérica;

-3° Guerra: ocorreu entre 149 a.C. e 146 a.C., tendo como principal consequência a vitória de Roma, implacável sobre Cartago. O general romano Emílio Africano atacou Cartago novamente, conquistando a cidade e escravizando seus moradores. Além disso, foi jogado sal sobre todo o território para que o solo não mais produzisse, encerrando a série de conflitos.

As consequências de sair vitoriosa das Guerras Púnicas para Roma foram muitas. Em termos sociais e devido ao crescimento do comércio, surgiu uma nova classe social: os comerciantes, também chamados de homens novos e cavalheiros.

Em termos socioeconômicos, ocorreu uma grave crise em Roma, pois com o crescimento do número de escravos, grande parte dos cargos ocupados pela plebe não eram mais necessários, causando o desemprego em massa.

Como as Guerras Púnicas permitiram a conquista do Mediterrâneo Ocidental por Roma, isso serviu como porta de entrada para que os romanos conquistassem todo o mediterrâneo e grande parte da Europa, ou seja, se tornassem uma nação hegemônica.

Por fim, com a conquista de novos territórios havia maior oferta de produtos, o que fez com que os pequenos e médios proprietários italianos entrassem em crise e fossem obrigados a vender suas terras ao Estado e latifundiários, aumentando ainda mais a hegemonia do estado Romano.

Como resultado de todas essas consequências, a configuração do poder e os territórios da Itália, grande parte da Península Ibérica e norte da África foram modificados, ficando as bases para que os eventos históricos posteriores ocorressem.

Plástico comestível

O plástico comestível, autenticamente brasileiro, foi criado pela Embrapa Instrumentação, no município de São Carlos (SP) e trouxe uma série de benefícios para a sua utilização, que vai desde a incorporação junto aos alimentos, em forma de embalagens, até práticas sustentáveis de reaproveitamento de rejeitos provindos da indústria alimentícia que seriam despejados e decompostos.

Plástico comestível

Segundo a própria Embrapa, o plástico comestível pretende trazer novas formas de consumo e conservação de orgânicos e surgiu através de um investimento de R$ 200 mil, destinada a Rede de Nanotecnologia Aplicada ao Agronegócio (Agronano). Com engajamento de pesquisadores e cientistas, a Empresa Brasileira de Pesquisa Agropecuária destaca que o produto serve para inúmeras funções. Veja quais e como funciona o processo.

Utilização do material

O plástico comestível conta com inúmeras funcionalidades, mas a principal está na indústria alimentícia. Películas plásticas que envolvem uma pizza, por exemplo, podem ser agregadas ao alimento quando forem assadas – garantindo sua conservação antes da venda, não sendo necessário remover a película, como os plásticos industriais comuns de massas desse gênero que encontramos nos dias atuais.

Não apenas a possibilidade de consumir o plástico comestível foi trazida com essa invenção brasileira: o material também foi apresentado em alguns sabores, como tomate, espinafre, mamão e goiaba, entre outros. Com essas vantagens, o plástico pode ser utilizado não apenas como película protetora, mas também poderá contribuir no sabor e tempero de diversos alimentos advindos da indústria.

O chefe-geral da Embrapa Instrumentação, Luiz Henrique Capparelli, deu alguns exemplos de como ele poderá ser aplicado no cotidiano das pessoas: sachês que poderão ser dissolvidos na sopa, dando um tempero próprio ou até mesmo aves, como o peru, envolvidos em películas com sacos feitos da laranja, entre outras formas de utilização.

O plástico comestível tem, em sua origem, alimentos desidratados, como polpas de frutas que, junto a um nanomaterial utilizado pela Embrapa, torna a película muito semelhante ao plástico comum, utilizado em vários segmentos. A descoberta mostra que esse elemento orgânico pode ser até três vezes mais rígido que os plásticos comuns.

Sua fabricação segue um padrão: conhecido como liofilização, o processo segue as seguintes etapas:

– Desidratação;

– Congelamento, com a água passando do estado sólido direto para o gasoso (sublimação);

– Manutenção dos nutrientes;

– Junção ao nanomaterial (que dará a ‘liga’);

– O plástico é exposto a raios ultravioletas em uma fôrma que, em minutos, conclui seu processo de fabricação.

Redução do desperdício e práticas sustentáveis

Não apenas para dar um novo sabor ou ser utilizado como tempero, que os plásticos comestíveis possuem enormes benefícios. Dois pontos são fundamentais, segundo a Embrapa: a redução exponencial do desperdício de alimentos e práticas sustentáveis – visto que o plástico comum demora, em média, 400 anos para se decompor na natureza.
Alimentos reaproveitados

O desperdício de orgânicos, problema endêmico no Brasil, poderá ser reduzido com a utilização do plástico comestível. O chefe-geral da Embrapa cita frutas e verduras que, após um determinado tempo de exposição, seja por uma aparência não agradável ao consumidor ou seu próprio tempo de maturação, serão reutilizadas na indústria de plásticos comestíveis.

Com essa ideia, reduzem-se os custos de produção do material, visto que os alimentos serão reaproveitados, e isso poderá ser repassado ao consumidor na precificação. Com a viabilidade do projeto, parcerias entre indústrias do plástico que pode ser ingerido, e locais que vendem orgânicos, como feiras e supermercados, trazem benefícios a todos.

O plástico comestível também desponta como uma prática sustentável. Com a demanda crescente de materiais orgânicos e a redução do lixo, o material reduziria em grande parte o plástico convencional, derivado do petróleo. Com incentivos de governos e entidades para o processo, mais empresas se adequariam às necessidades – aumentando o investimento em pesquisas e, consequentemente, na capacidade de novos métodos de fabricação.

O projeto do plástico comestível demorou duas décadas de pesquisa junto a Embrapa Instrumentação. Entre 2014 e 2015, os pesquisadores divulgaram os primeiros resultados e, de lá para cá, novas formas de utilização do material vem sendo testadas, principalmente dentro da própria indústria alimentícia. Ainda não há um prazo para que eles cheguem às prateleiras do mercado, mas uma coisa é certa: o plástico comestível é totalmente seguro.

Reconhecido pela comunidade científica internacional, o material passa, no momento, por testes para aumentar sua durabilidade – principalmente em condições como a temperatura ambiente. O principal estudo, nesse ponto, é a utilização do polissacarídeo que forma a carapaça dos caranguejos, visto que esse componente tem diversas capacidades antibacterianas.

Mudança de cores no plástico, apontando o estado de conservação do alimento, ainda em fase de pesquisa, também poderão contribuir para evitar o consumo de alimentícios fora do prazo. Reduzindo assim o desperdício, doenças gastrointestinais causadas por microrganismos e, como dito anteriormente, reduzindo a enorme utilização de plástico convencional no Brasil – que chega a 4 milhões de toneladas anuais.

Tipos de tratamento de efluentes

A água é o bem mais precioso para qualquer ser vivo nesse planeta, indo desde as criaturas microscópicas, passando pelo ser humano e chegando a grandes animais e plantas. Quando o assunto é esse bem vital para a manutenção da vida, o Brasil se destaca.

Tipos de tratamento de efluentes

O país conta com 55.467 km² de bacia hidrográfica, ou seja, possui a maior quantidade de território em rios de todo o mundo, que produz grandes belezas naturais. Como, por exemplo, o rio Amazonas, que possui a maior vazão de todo o mundo, e o pantanal, a maior superfície alagada de todo o planeta.

Infelizmente devido à ação do homem não só a bacia hidrográfica do Brasil, como a de todo os países do mundo, se encontram ameaçadas. Os motivos dessas ameaças são muitos, como o desmatamento que deixa o solo exposto, causando o assoreamento dos rios.

No entanto, atualmente um dos motivos de danificação de águas mais preocupante é o despejo dos resíduos da atividade humana, não tratados, que são jogados diretamente nos rios, fazendo com que os mesmos fiquem poluídos e, em muitos casos, levando mesmo à morte de rios. É o caso de um trecho do rio Tietê, na região metropolitana de São Paulo, considerado como morto, pois devido à poluição não há oxigênio suficiente na água para que qualquer espécie sobreviva.

Devido a isso, neste artigo será tratado de um assunto de extrema importância e cada vez mais em pauta na rotina de ambientalistas e de órgãos ambientais das esferas de governo federal, estaduais e municipais: o tratamento de efluentes, mais especificamente, os tipos de tratamento atualmente disponíveis e utilizados.

Importância do tratamento de efluentes

A primeira coisa que deve ser esclarecida é o que se entende por efluentes. Na verdade, apesar do nome pouco comum, trata-se de um conceito bastante simples, pois corresponde à água que contêm resíduos, quer sólidos, líquidos ou gasosos, resultantes da atividade humana. Para uma classificação mais precisa, os especialistas separam os efluentes entre aqueles provenientes de residências e de indústrias mais preocupantes.

Para se ter ideia de como as indústrias são grandes poluidoras das águas, as chaminés industriais são as que mais produzem efluentes atmosféricos, pois as partículas poluentes são lançadas na atmosfera e, quando chove, elas se misturam à água que, percorrendo seu caminho natural, acaba sendo despejada em rios e mares.

Um exemplo claro do efeito desse tipo de poluição pode ser encontrado no já mencionado rio Tietê, em especial no trecho dele que se encontra na região metropolitana. Uma solução para contornar esse problema é investir na despoluição dos rios, algo que vem sendo feito no Tietê. No entanto, trata-se de uma medida pouco eficaz e extremamente cara.

Assim, a coisa mais sábia e barata a ser feita tanto pela esfera governamental quanto pela esfera privada é investir no tratamento de efluentes, para que os resíduos presentes nos efluentes despejados nos rios sejam as mínimas concentrações possíveis. É justamente os tipos de tratamento desses poluentes que serão abordados abaixo.

Opções de tratamento disponíveis

Os tratamentos mais comuns para efluentes são aqueles que utilizam processos físicos, algo que ocorre por vários motivos. O primeiro deles é que tais processos não necessitam de tecnologia aplicada. Dessa maneira, está disponível para um número maior de empresas e órgãos públicos a um preço acessível. Dentre os tratamentos mais comuns nessa modalidade, destacam-se:

-Decantação, que consiste em deixar a água parada para que os sedimentos contidos nela vão para o fundo e possam ser removidos;
-Filtração, por meio do uso de filtros com telas e membranas capazes de reter parte dos elementos poluentes;
-Separação centrífuga, que pode ser considerada como o contrário da decantação, uma vez que os sedimentos são separados por meio da agitação constante e em alta velocidade da água;
-Flotação, que funciona por meio das forças de atração, uma vez que as partículas poluentes são separadas da água por meio de bolhas de ar, para que posteriormente possam ser retiradas;
-Membranas de filtração, consistindo em um tratamento novo, mas altamente eficaz. Quando a água é forçada a passar pela membrana semipermeável, ocorre a separação das substâncias solúveis das insolúveis, tendo como principais pontos positivos a baixa necessidade energética, a fácil aplicação em contextos diversos e a dispensa da necessidade do uso de produtos químicos.

Outro tipo bastante comum de tratamento de efluentes consiste na utilização de substâncias químicas para realizar a retirada dos poluentes, e por isso são conhecidos como processos químicos. São exemplos desses métodos a neutralização e estabilização, a oxidação e a permuta iônica.

Por fim, existem os tratamentos biológicos, que figuram entre os mais eficientes e sustentáveis de todos, pois consistem no estímulo do crescimento de micro-organismos que utilizam a matéria orgânica como substrato, retirando as impurezas sem necessidade de nenhum aditivo químico. Além disso, dependendo da situação, os microrganismos também são capazes de remover nitrogênio, metais pesados como o mercúrio, nitrogênio e sólidos em suspensão da água, o que reduz drasticamente os impactos ambientais causados pelos efluentes.