Artes

Biografias

Biologia

Educação Física

Espanhol

Filosofia

Física

Geografia

Geografia do Brasil

Gramática

História

História do Brasil

Inglês

Literatura

Matemática

Português

Quí­mica

Redação

Sociologia

A Primeira Revolução Industrial

A Revolução Industrial, numa visão histórica global, é um processo ainda em curso em pleno século XXI, sem hora marcada para terminar. Pode ser corretamente definida como um processo contínuo de renovação e aperfeiçoamento dos meios de produção, da geração de valor, redução dos custos e aumento de produtividade.

A Primeira Revolução Industrial

Da máquina de fiar, que, na segunda metade do século XVIII, foi um marco da mecanização da produção, que revolucionou a produção de fios para tecidos, substituindo a velha roca, à era da tecnologia da informação, da biotecnologia, da robótica e da engenharia genética, a industrialização é um dos principais indutores das mudanças na sociedade humana desde a Primeira Revolução Industrial.

A Revolução Industrial foi a principal responsável pela migração das populações campestres para as cidades. Diante da oferta de trabalho nas indústrias, camponeses migravam para as cidades em busca de oportunidades.

A industrialização originou novas formas de pensar a sociedade e novos tipos de organizações sociais e políticas, assim como está relacionada ao surgimento de novos conflitos.

Do ponto de vista material, a industrialização está entre os mais preciosos indutores de qualidade de vida. Através do aumento dramático da capacidade de produção de bens de consumo, é possível entregá-los a mais pessoas com um custo mais baixo e preços menores. Como contribuiu para a distribuição de riquezas, ainda que de forma precária, principalmente no primeiro momento, contribuiu para levar, progressivamente, mais conforto a mais pessoas.

Ambiente da Primeira Revolução Industrial

A Europa chegou à segunda metade do século XVIII vivendo um período de grandes mudanças. A Europa feudal da Idade Média dera lugar a monarquias poderosas, que concentravam a maior parte das riquezas, mas o advento das grandes navegações, iniciadas no final do século XIV, e o incremento do comércio haviam criado uma força nova força econômica.

A Inglaterra, que se tornara um grande império, com vasta colônia no território americano e domínio sobre a Índia, era uma das nações que enriquecia com o comércio. Ainda que a forma de colonização do continente americano fosse no modelo de povoamento, conferindo alguma independência aos colonos, esse era um mercado consumidor cativo para os produtos ingleses.

Da mesma forma, a Inglaterra possuía no próprio continente europeu um mercado para seus produtos têxteis, sendo que o comércio enriqueceu os que se aventuraram naquela atividade econômica.

Com isso, estavam estabelecidas as condições para que a Inglaterra desse o primeiro passo para alavancar um processo que mudaria a humanidade. Havia, afinal, mercado consumidor e capital para financiar a industrialização.

Como foi a Primeira Revolução Industrial

Por volta de 1750, teve início na Inglaterra a transição do sistema de produção baseado na manufatura para o sistema fabril. A máquina de fiar é parte do marco zero da primeira Revolução Industrial. Transformou a Inglaterra na maior produtora de fios para tecidos de algodão. Em 1785, o tear mecânico substituiu o tear manual, levando os ingleses a se tornarem a mais competitiva nação na produção de tecidos.

A industrialização logo chegou à França, Bélgica, Itália, Alemanha e Rússia. Fora da Europa, ganharia impulso, também, no Japão e nos Estados Unidos.

A busca por formas de energia para mover os parques industriais acabou originando a máquina a vapor, primeiramente para utilização nas indústrias de ferro, carvão mineral e tecidos, posteriormente impulsionando o setor de transportes, com os navios a vapor e as locomotivas.

Do ponto de vista político, a Primeira Revolução Industrial abriu caminho para a expansão do imperialismo europeu. Grande parte da matéria prima utilizada na indústria vinha das colônias, que também eram consumidoras dos produtos industrializados. Assim, a Europa estendeu seu controle e dominação sobre povos africanos e nações asiáticas.

Do ponto de vista das relações de trabalho, é importante notar que o advento da Primeira Revolução Industrial é contemporâneo aos ideais iluministas e ao surgimento do liberalismo econômico, que preconizava que as relações de produção, trabalho, lucro e consumo seriam capazes de organizar a sociedade e fazer a justa distribuição de riqueza e bem estar.

Na realidade, não foi bem o que aconteceu. O início do processo de industrialização foi marcado por operários submetidos a condições precárias de trabalho, com carga horária impensável nos dias atuais e vivendo em condições não menos precárias nas cidades.

Esse fenômeno, intimamente ligado à Primeira Revolução Industrial, está na origem de grandes transformações na sociedade humana. Foi na primeira metade do século XVIII que surgiram as organizações sindicais, criadas como forma de reivindicação coordenada de melhores condições de trabalho. Posteriormente, essas organizações ganhariam um viés mais politizado, com o surgimento das ideias anarquistas e, posteriormente, do marxismo, que, em resumo, pregava que a forma como se estabeleciam as relações de produção e distribuição de riquezas de uma nação é o que a definia.

O processo que ficou conhecido como Primeira Revolução Industrial ocorreu em um período que compreende a metade do século XVIII até meados da segunda metade do século XIX.

Aneurisma Cerebral

Dilatação considerada anormal localizada em uma das artérias cerebrais, o aneurisma cerebral geralmente acontece na região do Polígono de Willis e é resultado do enfraquecimento local da parede dessa parte do cérebro. Pouco conhecido pela população em geral, o Polígono de Willis, também chamado de círculo arterial cerebral, é uma estrutura extremamente importante para a circulação sanguínea do cérebro e também para o seu melhor funcionamento.

Aneurisma Cerebral

De forma geral, o aneurisma cerebral acontece quando uma saliência com o formato de um balão aparece repentinamente nas artérias cerebrais do paciente. Esse balão surge em decorrência do enfraquecimento da parede dos vasos. Isso significa que a parede de um aneurisma é mais fraca que a parede de uma artéria considerada saudável. Por isso, as chances de rupturas e hemorragias cerebrais são maiores.

Conheça alguns dados sobre o aneurisma cerebral

Estudos recentes revelaram que pelo menos 5% de toda a população possui pelo menos um aneurisma cerebral. Desse total, 20% das pessoas convivem com dois ou mais aneurismas no cérebro simultaneamente.

A incidência desse problema é muito maior entre pessoas do sexo feminino do que entre os homens. Além disso, os casos de aneurisma cerebral são maiores entre pessoas que já têm mais de 50 anos de idade, sendo considerado um fator de risco.

Apesar da porcentagem de pessoas que possuem um ou mais aneurisma cerebral ser alta, o número de rupturas de aneurismas cerebrais que causam uma hemorragia intracraniana é considerada baixa: apenas 10 aneurismas cerebrais para cada 100 mil pessoas que possuem esse problema.

O que podemos concluir com esses dados? Todas essas estimativas indicam que o aneurisma cerebral não é uma situação rara no corpo humano. Muito pelo contrário! As chances de termos esse problema são altas. Porém, grande parte dos aneurismas localizados no cérebro acaba não se rompendo ou causando sintomas na pessoa que o possui.

Fatores de risco, sintomas e tratamento

As chances de uma pessoa já nascer com um aneurisma cerebral são pequenas. Isso significa que o paciente acaba desenvolvendo esse problema ao longo da vida e alguns fatores e hábitos que adquirimos com o passar dos anos acabam facilitando o aparecimento desse problema. Os principais fatores de risco para um aneurisma cerebral são:

Pressão alta;
Presença de tumores cerebrais;
Uso excessivo de bebidas alcoólicas;
Histórico familiar;
Uso excessivo de cigarro;
Pessoas com mais de 50 anos de idade;
Utilização de drogas como cocaína e crack.

Porém, não são apenas esses fatores de risco que contribuem para que a pessoa desenvolva um aneurisma cerebral durante a vida. Algumas doenças consideradas genéticas também aumentam as chances do paciente ter um aneurisma cerebral. Alguns desses problemas de saúde são:

Esclerose tuberosa;
Lúpus eritematoso sistêmico;
Síndrome de Marfan;
Rins policísticos;
Coarctação da aorta.

Você conhece os principais sintomas de um aneurisma cerebral? Como na maioria das vezes eles são pequenos e não se rompem, é muito comum que os aneurismas cerebrais sejam assintomáticos, ou seja, não apresentem nenhum tipo de sintoma.

Porém, essa não é a realidade de todos os aneurismas localizados no cérebro. Quando apresentam sintomas, normalmente os aneurismas cerebrais podem causar fortes dores de cabeça, formigamento e dormência em algumas regiões do corpo, visão borrada, alterações na pupila e até mesmo a paralisação de um dos lados do rosto do paciente.

O aneurisma dificilmente apresenta esses sintomas antes da sua ruptura. Por isso, a maioria das pessoas vivem anos com sua presença sem nem ao menos senti-lo. Além disso, todos esses sintomas irão variar de acordo com o tamanho do aneurisma e também com a sua localização.

Na maioria dos casos, o paciente acaba descobrindo que tem um aneurisma cerebral de forma acidental. Muitas vezes, o médico faz o diagnóstico do problema enquanto realizava exames que possuíam outros objetivos. Alguns desses exames são a tomografia computadorizada, a ressonância magnética cranial e exames de imagem.

O tratamento de um aneurisma cerebral variará de acordo com seu tamanho e também do seu rompimento ou não. Aneurismas menores e com pouco sangramento acabam apenas sendo monitorados com exames que devem ser realizados anualmente pelo paciente. Recomenda-se que essas pessoas evitem o uso de drogas, cigarro e bebidas alcoólicas, pois isso diminuirá as chances do aneurisma aumentar ou se romper.

Quando o aneurisma cerebral é maior e possui um risco elevado de rompimento, é necessária a realização de um procedimento cirúrgico imediatamente. Isso também acontece em casos em que o aneurisma já se rompeu. Nos dois casos, o tratamento com a cirurgia deve ser iniciado o quanto antes para aumentar as chances de sobrevivência do paciente.

A cirurgia para tratar essas duas situações busca interromper o fluxo sanguíneo para a região onde o aneurisma cerebral está localizado. Muitos médicos também realizam a embolização do aneurisma, método pouco invasivo que implanta um fio de platina no aneurisma e interrompe o fluxo sanguíneo para essa área.

Síndrome da anorexia-caquexia

A cada ano, 1 milhão de novos casos de câncer surgem no mundo segundo uma pesquisa feita pela American Cancer Society (ACS). Hábitos de vida nocivos, sedentarismo, obesidade, tabagismo, alcoolismo e outros comportamentos prejudiciais ao corpo são as principais influências para que tumores, benignos ou malignos, venham aparecer no organismo.

Síndrome da anorexia-caquexia

Além de medidas como a radioterapia e a quimioterapia, muitos médicos recomendam o exercício de outras alternativas para promover uma recuperação do paciente frente ao tumor e assim ter uma melhor qualidade de vida. Entretanto, dependendo da agressividade e da força que o tumor se alastra pelo corpo, algumas medidas podem não apresentar o resultado desejado e não conseguem interferir no surgimento de outros agravos. As alterações físicas, psicológicas e sociais desencadeiam uma série de complicações que ampliam o acompanhamento do paciente com outros profissionais.

Uma dessas complicações é a síndrome da anorexia-caquexia, uma complicação severa que é caracterizada pela perda de peso intensa e pelo consumo excessivo de estruturas adiposas e musculares do corpo pelo tumor cancerígeno. Embora seja um quadro mais delicado, é possível o paciente se recuperar da síndrome e conseguir se restabelecer.

O que é a SAC?

A Síndrome da Anorexia-Caquexia é um agravo que surge quando o câncer já está em um estágio avançado de metástase. A própria caquexia já é uma doença isolada, mas que possui uma forte relação em pacientes que estão com câncer. Por ter influência de vários aspectos, o problema é complexo e compreende uma perda de peso brusca do paciente em virtude da perda de massa corpórea e do tecido adiposo do corpo. Essas duas estruturas são responsáveis em absorver e guardar as células de gordura e, com a escassez desses tecidos, as células também se perdem.

80% dos casos de câncer vão passar por essa condição, mas não chega a ser a causa principal de falecimento, podendo até ser sobrepujada. No entanto, 22% desses mesmos possuem relevância na morte do paciente porque o corpo perde muitos nutrientes importantes para restabelecer o organismo. O que difere de uma desnutrição para a complicação é que a desnutrição só há a perda de gordura enquanto o outro agravo atinge a gordura e também o tecido muscular.

Essa perda brusca também pode ocasionar outros males principais:

• Anemia;

• Astenia (enfraquecimento dos musculares e até do sistema nervoso em casos mais específicos);

• Disfunção no sistema imunológico;

• Problemas na metabolização de nutrientes e vitaminas absorvidas no corpo;

• Má-absorção intestinal;

• Desenvolvimento de intolerância alimentar a proteína (o sistema digestivo não consegue mais processas e absorver as células proteicas dos alimentos).

Além da perda de peso, da alteração corporal e da possível aparição de outros males, o paciente com a síndrome da anorexia-caquexia também pode ocasionar sonolências, fácil probabilidade de contrair infecções, desenvolvimento de edemas em virtude da fraca mobilidade dos membros, úlceras comuns nos membros superiores, no tórax e em outras áreas com grande índice de músculo.

Por causa da anemia, a pessoa também pode ficar mais pálida, pois o balanço nitrogenado do corpo fica em caráter negativo e o sistema metabólico tem dificuldade em equilibrar as substâncias processadas e absorvidas no sangue.

Tratamento da complicação

A síndrome da anorexia-caquexia pode ser dividida em dois tipos:

• Fase primária, quando o paciente há dificuldades metabólicas no corpo que resultam em inflamações e outras alterações ou pelo tamanho do tumor ou pela metástase;

• Fase secundária, no qual o paciente já está com perda de peso severa e o intestino sofre ressecção dificultando a absorção dos alimentos.

Embora seja classificada dessa forma, os tratamentos abrangem a melhora nas duas situações. A alimentação e a moderação de remédios são as principais medidas para que o paciente apresente melhora porque essas alternativas são capazes de suster três disfunções principais da complicação: hormonal, nutricional e sensorial.

O primeiro enfoque é com a medicação. A equipe médica recomenda o consumo de remédios com base em Ômega-3, principal substância concentrada de ácidos graxos poliinsaturados que vão desinflamando a camada muscular e evitando que o organismo perca nutrientes e outros agentes responsáveis em realizar o metabolismo, como a insulina. Isso melhora o peso do corpo e ajuda o organismo a diminuir naturalmente o tamanho do tumor cancerígeno.

Outra vantagem é que o uso dos remédios ajuda consideravelmente a fazer a síntese proteica de hematócitos, reduzindo a palidez do paciente e diminuindo o nível de anemia. O corpo sofre uma ação antioxidante, que o deixa mais limpo e propício para melhor circulação de substâncias essenciais para a recuperação.

No lado da alimentação, o cardápio também precisa ter concentração na elevação proteico-calórica. Queijos, leite, ovos, caldo de legumes, iogurte natural batido com frutas secas e sementes, manteiga, leite de coco, sorvetes, geleias de frutas, leguminosas e outros alimentos como batata, inhame e macaxeira precisam constar na dieta do paciente. Tudo isso influencia para um aumento de peso e são produtos mais aceitáveis para consumo.

Administração Colonial Brasileira

A partir de 1530, trinta anos após a descoberta do Brasil por Pedro Álvares Cabral, começou o processo de colonização das terras brasileiras por Portugal. O país, chamado então de Reino ou Estado do Brasil, hoje tem essa época reconhecida como Brasil colônia ou apenas colônia. A Administração Colonial Brasileira feita pelos portugueses compreende os períodos entre esse início do século XVI até o começo do século XIX.

Administração Colonial Brasileira

A necessidade da colonização tinha a ver com as necessidades econômicas de Portugal. Eles precisavam encontrar ouro e prata, além de descobrir quaisquer outras formas de receita, já que o comércio que realizavam no Oriente andava fraco. Outra razão também era as constantes invasões estrangeiras em território brasileiro, o que fez com que os portugueses buscassem na colonização uma forma de controle do local. As invasões consistiam principalmente em expedições da Holanda, Inglaterra e França, que queriam o pau-brasil encontrado por aqui, valioso para os europeus.

As capitanias hereditárias

Qualquer estudo da administração colonial brasileira vai se focar, a princípio, nas capitanias. O rei Dom João III implementou esse sistema em 1534, já conhecendo-o das colonizações africanas.

O território total do Brasil foi dividido em 15 partes, com linhas paralelas ao “círculo do Equador”. A divisão dos quinhões era feita desde o litoral até o meridiano de Tordesilhas, e cada parte era doada a um capitão-donatário. Eles possuíam direitos e deveres, que estavam dispostos em documentos como a Carta de Doação e o Foral. A maioria desses capitães era de funcionários civis ou militares, ou fidalgos.

Alguns dos direitos que as capitanias conferiam eram:

– Hereditariedade (as terras poderiam ser passadas de pai para filho)
– Administração local (incluindo gestão de justiça, da agricultura, dos impostos etc)
– Doação de sesmarias (terrenos abandonados)
– Aprofundamento da colonização (por exemplo, com a criação de vilas)
– Escravização de indígenas
– Exploração livre das minas

Esses direitos existiam como forma de atrair os donatários, já que o investimento nas capitanias seria exclusivamente deles – tudo isso foi criado porque Portugal não conseguiria colonizar o Brasil todo com os próprios recursos. Ainda assim, esse sistema não deu certo por uma série de razões.

Para começar, muitos donatários não tinham a capacidade ou o interesse de investir nas capitanias. Além disso, havia uma distância muito grande entre a colônia e a metrópole portuguesa, uma grande quantidade de terras improdutivas e muita hostilidade por parte dos povos nativos, o que ocasionava diversos conflitos.

As únicas capitanias que deram certo foram as de Pernambuco e São Vicente, devido à sua boa produção de açúcar. Com o restante do sistema falhando, a administração colonial brasileira precisou encontrar outra maneira de seguir com a colonização.

Governo Geral

Entre 1548 e 1549, a Coroa Portuguesa estabeleceu o Governo Geral. O objetivo agora era centralizar o poder, para que o governo pudesse ajudar e integrar as capitanias.

Salvador foi escolhida como cidade sede do Governo Geral, e Tomés de Sousa foi nomeado como primeiro governador-geral. Tomés tinha a obrigação de agir em nome do rei de Portugal, para desenvolver o projeto colonizador. Suas ações incluiriam o combate às tribos indígenas hostis, o desenvolvimento das forças coloniais contra invasores externos, a realização de expedições para encontrar riquezas minerais, promoção de conversão ao catolicismo e fiscalização das capitanias.

Para ajudar o governador, cargos como os de capitão-mor, ouvidor-mor e provedor-mor foram criados. Esses funcionários eram homens ricos, proprietários de terras, juízes ou homens de confiança no geral. Além deles, a instituição Igreja Católica teve um papel fundamental na colonização.

Haviam muitos caminhos a serem tomados pela Igreja para a difusão dos ideais católicos. A evangelização dos índios era um deles, claro, mas o clero também era responsável pela educação dos colonos dali para frente. Além dos ensinamentos religiosos, essa educação transmitia muitos valores e comportamentos europeus.

O sistema do Governo Geral ficou em voga até a vinda da família portuguesa ao Brasil em 1808. A capital continuou sendo em Salvador, na Bahia, até 1763, quando foi transferida para o Rio de Janeiro por razões estratégicas. Depois da mudança de 1808, a colônia não durou mais muito tempo, tendo sido dissolvida em 1822.

Durante o tempo em que a administração colonial brasileira ficou ativa, o governo enfrentou algumas dificuldades, como as invasões holandesas em 1630, ou os conflitos e revoltas de diversas camadas sociais, como no caso da Inconfidência Mineira em 1789. Mas, ainda assim, também houve épocas muito boas para os portugueses, como o Ciclo do Ouro no século XVIII, após as descobertas das primeiras minas de ouro. Os bandeirantes também ajudaram na expansão territorial, e algumas cidades mineiras se desenvolveram significativamente, tanto no âmbito econômico quanto no cultural e religioso. Foi para acompanhar esse desenvolvimento no sudeste que a capital foi transferida de Salvador para o Rio de Janeiro, na verdade.

A Fé e a Arte: A Igreja Anglicana e o Cinema São Luiz

Há 180 anos a Igreja Anglicana chegou a Recife, conhecida pela população como “’igrejinha dos ingleses”. A Holy Trinity Church iniciou suas bases brasileiras em 1838 onde hoje é o Cine São Luiz. Com uma população em média de 200 mil habitantes e uma pequena, mas expressiva colônia inglesa, as orações anglicanas eram feitas num prédio pequeno pelo primeiro ministro da igreja anglicana, G. Tuckins.

A Fé e a Arte: A Igreja Anglicana e o Cinema São Luiz

A primeira Igreja Anglicana do Recife ficava na antiga Rua Formosa, atual Avenida Conde de Boa Vista, esquina da Rua Aurora com o Rio Capibaribe e com uma beleza arquitetônica única. Com 12 metros de largura e 17 de extensão, um santuário com duas sacristias, mas que foi demolido pelo plano de expansão urban. Foi erguido o Edifício Duarte Coelho, imponente prédio de 13 andares e onde foi construído o primeiro cinema de Recife.

Como surgiu a Igreja Anglicana

A Igreja Anglicana nasceu no período da Reforma Protestante, através do Rei Henrique VII da Inglaterra. O monge alemão Martinho Lutero firmou suas ideias reformistas contra as indulgências católicas de onde foi julgado como herege e exilado. Lutero traduziu a Bíblia para o alemão, já que só era permitida sua escrita em latim e liderou inúmeras revoltas contra os votos monásticos, adorações e a formação de cultos que consumou o rompimento definitivo dele e de outros monges com a igreja.

De rebeliões ideológicas surgiram lutas armadas e mais caminhos foram abertos na França com João Calvino e na Suíça com Ulrico Zuínglio. Mas na Inglaterra os caminhos foram um pouco diferentes, embora também ligados a reforma, já que Henrique VIII era católico e defendia a Igreja Romana. Casado com Catarina de Aragão, Henrique VIII queria um filho homem para sucedê-lo ao trono e pediu a anulação do casamento por não conseguir com a esposa. O Papa Clemente VII recusou a anulação e mesmo assim Henrique se separou de Catarina e casou com Ana Bolena, sendo excomungado pela igreja católica e iniciou sua própria, o Anglicanismo.

Essa ação ajudou a cortar o poder da Igreja Católica, que estava acima do poder absolutista monárquico e com o rompimento, todos os bens da igreja passaram para a nobreza. Houve um aumento da produtividade e riqueza do país com o uso das terras, além do apoio de nobres e plebeus.

O Ato de Supremacia precisou ser votado pelo Congresso e só confirmou que Henrique VIII e seus descendentes seriam os sucessores da liderança da nova igreja, chamada de anglicanismo. Quem não se submetesse ao anglicanismo seria perseguido excomungado, obrigando a todos a assistir cultos e não mais missas, onde nomes relevantes da história inglesa foram mortos.

Seu sucessor Eduardo VI manteve a religião, mas a rainha Maria I teve uma breve reconciliação com Roma, que seguiu também no início de reinado de Elizabeth I, mas que logo voltou ao anglicanismo que também sofreu reformulações em sua estrutura e permaneceu em todos os reinados posteriores.

No Brasil a Igreja Anglicana chegou ao Brasil junto com a corte portuguesa, através do Tratado de Comércio e Navegação que permitia a Inglaterra trazer missionários para o país. O acordo impedia a construção de templos e só permitia cultos realizados em inglês, voltados para a sua comunidade. A primeira capela anglicana foi construída no Rio de Janeiro, chamada Christ Church, seguidas por duas em Minas Gerais.

De Igreja à Cinema

Em Recife, a primeira igreja anglicana foi construída em 1838, já que havia muitos ingleses morando na cidade. A “igrejinha dos ingleses” obedecia a arquitetura de seu país de origem e aspectos suntuosos e delicados, inclusive com ladrilhos que formavam uma bela pintura em mosaico e com uma janela de vidro colorida. A mármore branca se destacava ainda mais sob o sol de Recife vindo de oito outras janelas.

Porém, sob as ordens do Prefeito Pelópidas da Silveira seguido por Clovis de Castro, foi necessário demolir o templo para a expansão das vias urbanas. No local foi construído o Edifício Duarte Coelho, com 13 andares sendo quatro ocupados pelo Cine São Luiz, pertencente ao grupo Luiz Severiano Ribeiro.

A inauguração do cinema foi em 06 de setembro de 1952, com as mais modernas instalações da época e símbolo do luxo na capital. Com mil lugares, o local era frequentado pela nata da sociedade Pernambucana, palco de grandes lançamentos e eventos, sendo o primeiro filme exibido “O Falcão dos Mares”, com Gregory Peck.

Um dos maiores clássicos do cinema nacional também teve sua estreia no Cine São Luiz, “O Canto do Mar”, de Alberto Cavalcanti, que na época não foi devidamente valorizado e compreendido. A data de 03 de outubro de 1953, dia do lançamento, foi marcante por também ser do assassinato de um deputado em frente ao local.

Em sua entrada o Cinema São Luiz apresentava um painel do artista Lula Cardoso Ayres, escudos e brasões no balcão, no teto da plateia detalhes florais e no palco dois vitrais de Aurora de Lima formavam a decoração do local.

Sua época de ouro foram nos anos de 1960 a 1980, com exibição de filmes para a juventude e outros que atraiam filas e lotação máxima, com pessoas sentadas em escadas. Mas na década de 90 o cinema começou a entrar em decadência onde os cinemas de bairro iam desaparecendo e teve uma breve esperança com o lançamento de Titanic em 1997. Em 2007 o grupo Luiz Severiano Ribeiro fechou o cinema, mas o prédio foi tombado como monumento histórico da Fundação do Patrimônio Histórico e Artístico de Pernambuco.

Ele voltou a ser reaberta em 2009 por incentivo do Governo estadual e agora de posse de todos os cidadãos pernambucanos. Mantendo sua beleza e imponência original, o local foi reformado e os equipamentos modernizados, dando uma nova direção ao local, oferecendo preços populares para os cidadãos e uma programação mais ampla.

Batalha de Salamina

A Batalha de Salamina é um marco na história mundial por ser considerada a mais mortal e sangrenta da história entre as batalhas marítimas. Nela os militares da Grécia, em número muito menor e menos armados, venceram o poderio dos persas liderados por Xerxes, considerado um grupo imbatível. As 360 embarcações gregas enfrentaram estrategicamente as 600 embarcações persas e saíram vitoriosas após oito horas de combate.

Batalha de Salamina

Dos 40 mil homens mortos, um terço era persa e Xerxes assistiu à derrota sentado num trono próximo ao ocorrido, de onde viu os destroços de seus navios e corpos dilacerados de seus marinheiros espalhados pelas águas do mar. Conhecida como inclusa na Segunda Guerra Médica, parte da vitória grega é atribuída ao local, uma região acidentada no estreito que divide Salamina de Ática, de onde os persas tinham pouca maneabilidade no espaço e se viram presos.

A Primeira Guerra Médica

Há indicações de que a Batalha de Salamina ocorreu em 29 de setembro de 480 a.C. no estreito que separa as cidades gregas de Salamina e Ática. A vitória grega foi um marco histórico pelo contexto da guerra e do poder exercido pelo líder persa Xerxes, que detinha mais condições bélicas.

O conflito entre Grécia e Pérsia já era antigo e foi iniciado pela disputa da região da Jônia, na Ásia Menor. A colônia grega de Mileto era dominada pelos persas comandado por Dario 1º e na tentativa de se libertar foram travados os conflitos entre ambos, iniciando a Primeira Guerra Médica que terminou com a vitória grega na batalha de Maratona.

Houve uma trégua de dez anos em que ambos os países se organizaram para uma eminente guerra. A Grécia tinha a liderança do estrategista militar Temístocles, que não só preparou seus militares e ampliou sua frota de guerra, como também construiu uma muralha ao redor de Atenas e do porto de Pireus.

Depois de ter perdido a Batalha de Maratona, mesmo sendo superiores em militares e armas, a Pérsia se manteve focada em avançar contra a Grécia, já com o comando de Xerxes. Os persas construíram uma ponte no Helesponto, na península de Atos, que permitia a passagem de suas tropas com mais facilidade e rapidez.

A Segunda Guerra Médica

Era evidente a intenção de Xerxes em tomar a Grécia e em seguida o Sudeste Europeu, com o desejo da supremacia sobre grandes nações. Para isso ele equipava seu exército com o maior contingente da época e montava estratégias elaboradas de ataque com foco total na conquista.

O exército persa era o mais numeroso da época, mas não era conhecido pela motivação, já que era composto pode pessoas escravizadas pelas nações já conquistadas. Os soldados eram obrigados a lutar pelo seu inimigo.

Enquanto pequenas cidades gregas ao norte se rendiam ao poder persa e eram obrigados e ampliar seu exército, outras reforçavam seu bloqueio militar, especialmente na região sul. O líder Temístocles consultou o oráculo Delfos que profetizou a necessidade de se proteger com uma muralha de madeira, que ficou compreendida como buscar um combate naval cujas embarcações de madeira protegeriam a esquadra.

Logo Temístocles confirmou a profecia já que era praticamente impossível vencer os persas em campos de batalha. As poucas vezes que a Grécia foi vencida, foi nessa situação. Uma batalha histórica que se seguiu ocorreu em Termópilas, com o apoio da cidade grega de Esparta e de um de seus reis Leônidas, que levou 300 homens para o combate.

A estratégia era que esses 300 homens se posicionassem na estreita passagem do desfiladeiro de 15 metros de largura de Termópilas, com a retaguarda de mais 6 mil gregos. Mesmo com um número imensamente superior, a estratégia deu certo com uma dura resistência espartana que não esmorecia com os boatos do contingente persa.

Os soldados persas lutavam a base de chicotes de seus líderes, enquanto os espartanos davam seu sangue para proteger sua cidade, o que fazia toda a diferença e a vitória era questão de tempo. Porém, um traidor espartano chamado Eflaltes ajudou Xerxes a encontrar um caminho diferente para chegar a Termópilas. O traidor guiou a grande tropa para o outro lado das montanhas e conseguiram surpreender os espartanos.

Diante da derrota futura, Leônidas ordenou que os gregos voltassem para suas cidades, menos os 300 espartanos. Os soldados de Téspias e Tebas também se uniram a eles e foram até as últimas consequências na batalha, com a morte de todos e a vitória dos persas mesmo com as falanges de Esparta no estreito desfiladeiro de 15 metros de largura em Termópilas. Essa batalha também se tornou lendária pela forma como Leônidas, um dos reis espartanos e sua guarda pessoal de 300 homens, lutou contra os persas.

A Batalha de Salamina

A vitória persa custou caro para os vitoriosos, que também tiveram muitas baixas e precisaram se recompor. Enquanto isso os gregos esvaziaram Atenas para uma invasão evidente e reforçaram seus bloqueios militares. Os moradores de Atenas foram transferidos para a cidade de Salamina e a cidade vazia foi queimada e devastada pelos inimigos.

Os gregos acreditavam que a próxima batalha seria a última chance de manter seu país livre e a frota se posicionou no estreito braço do mar da ilha de Salamina. Temístocles planejou que os gregos atraíssem os persas para uma batalha naval. Os navios gregos eram menores em dimensão e quantidade, o que foi positivo para a região acidentada e de difíceis manobras, enquanto os navios persas eram grandiosos demais para qualquer movimento mais imediato e os navegantes não conheciam o local.

Os persas ficaram oprimidos naquele local enquanto os navios gregos os atacavam, na que é ainda hoje considerada a batalha naval mais sangrenta de todos os tempos. Com duração de 8 a 12 horas, os gregos saíram vitoriosos e Xerxes fugiu para a Pérsia, onde foi assassinado em seguida.

A estratégia vitoriosa de Temístocles é estudada até hoje e marcou o fim das guerras persas. Além de garantir à Grécia a liberdade, também impediu uma expansão dos persas pela Europa, que fatalmente destruiriam as culturas grega e romana e mudariam os acontecimentos que se seguiram.

Mel e Abelhas Brasileiras

No Brasil, há uma razoável diversidade de abelhas e do mel que elas produzem. José de Anchieta já percebeu isso em suas viagens no século XVI, quando registrou, até o momento, cerca de 20 espécies de abelhas brasileiras. Notou que elas produziam seu mel e cera de formas também variadas, desde usando troncos de árvores até abaixo da terra. Em alguns casos, o mel era venenoso – especificamente o chamado pelos índios de Eiraaquãyeta, que fazia com que as pessoas passassem mal. Outro viajante, Auguste de Saint’Hilaire, também escreveu sobre esse e outros tipos de mel descobertos em terras brasileiras.

Mel e Abelhas Brasileiras

Apesar da descoberta longínqua desde os índios, nem o mel nem a cera proveniente das abelhas nativas foram sempre bem utilizadas. Nos primeiros três séculos depois do descobrimento do país, alguns estudiosos defendem que a Uruçu era a espécia brasileira mais utilizada no país, mas outros documentos apontam que, na verdade, a cera mais comum nessa época vinha da África.

Já no século XIX, por volta de 1850, o estudo das abelhas brasileiras ganhou destaque sob o nome do farmacêutico Theodoro Peckolt, que observava as abelhas sociais, Trigonildas. Sua pesquisa serviu como objeto de estudo também de um pesquisador britânico, Frederic Smith. Entretanto, Peckolt notou que um ou outro mel indígena não apresentava sacarose, e isso fez com que a produção proveniente de abelhas nativas não fosse incluída na Farmacopeia Brasileira.

Pouco depois, Frederico Augusto Hannemann trouxe as abelhas europeias ao Brasil, sendo então considerado o “pai das abelhas”. Em sua fazendo Abelina, no Rio Grande do Sul, ele produziu por anos um mel muito popular, e o sucesso das europeias acabou fazendo com que os estudos sobre as abelhas brasileiras fossem quase completamente esquecidos.

Brasil vs o estrangeirismo do mel

Na década de 1940, farmacêuticos passaram a reestruturar a Farmacopéia Brasileira. Elsior Coutinho publicou, em 1941 na Revista Brasileira de Farmácia, uma defesa das abelhas nativas como produtoras de mel. Ele afirma que deve ser investigada a razão pela qual o mel da espécie estrangeira Apis mellifica é preferível em detrimento do mel brasileiro, produzido por diferentes espécies. Ele declara que o mel feito com abelhas Manda-saia, Jatahy ou Uruçu possuem melhor qualidade em todos os sentidos do que o mel europeu. A consistência, o sabor e o uso de suas propriedades medicinais é superior, então não haveria razão pela qual o mel brasileiro devesse estar excluído do Código Nacional de Farmácia.

Um professor de Farmocognosia do Paraná contra-argumentou Elsior dizendo que não valia a pena o esforço para estudar as abelhas e o mel nativo, pois a produção delas era inferior à produção das estrangeiras. Elsior respondeu que esse era um argumento fraco, proveniente de alguém que nunca havia estado no norte do Brasil, onde as abelhas Uruçu (Melipona Scutelaris) produzem mel encontrado em toda a região. Não haveria, portanto, qualquer déficit econômico em questões de nível de produção.

De qualquer maneira, a discussão sobre esse assunto continuou, mas não houve mudanças significativas na legislação brasileira a respeito das abelhas nativas por muito tempo.

Atualmente

O melhor mel de abelhas brasileiras atualmente vem das Meliponíneas, abelhas indígenas sem ferrão. Elas são superiores às abelhas europeias em todos os aspectos já apontados por Elsior: consistência, sabor, propriedades farmacêuticas e até ambientais. Ainda assim, elas são subjugadas pelo domínio do mel estrangeiro. Os supermercados são lotados do último, enquanto que não é tão simples encontrar mel brasileiro.

O problema é que, mesmo hoje em dia, ainda vivemos sob regulamentos da década de 1950. Eles se baseiam em características das abelhas Apis Mellifera, o que significa que só é considerado mel o que tem propriedades similares ao que é produzido por elas. O mel indígena tem menos açúcares, é mais líquido e essencialmente é diferente, então ele não chega mesmo a ser considerado mel pela legislação. Ou seja, é clandestino, mesmo sendo nacional.

Segundo o professor da USP Paulo Nogueira-Neto, isso acontece por razões burocráticas que também afetam países como México e Venezuela. Até 2004, até o manejo desse tipo de abelha sem ferrão era proibido. Agora, elas podem ser criadas, mas seu mel segue impedido de ser comercializado. A venda do melhor mel brasileiro é, portanto, proibida.

Entretanto, é verdade o que se dizia sobre questões econômicas, pelo menos no que diz respeito às Melioponíneas: essas abelhas realmente produzem menos mel, o que torna o produto final consideravelmente mais caro.

A única maneira que os produtores têm encontrado para tentar trabalhar com essas abelhas, enquanto não há uma legislação que respeite suas características, é desumidificar o mel. Por enquanto, não se sabe se esse processo atrapalha as propriedades antibióticas e o gosto do produto. Os produtores estão presos em um limbo entre tentativas desse tipo e a legislação brasileira, que não avançou nas últimas décadas e ainda dá preferência para o que vem de fora.

Reserva Particular do Patrimônio Natural

Uma Reserva Particular do Patrimônio Natural, ou RPPN, é uma categoria das Unidades de Conservação, instaurada pelo Sistema Nacional de Unidades de Conservação (SNUC).

Reserva Particular do Patrimônio Natural

As Unidades de Conservação são áreas específicas de preservação ambiental, por conta de suas características particulares. Segundo o artigo primeiro da Lei N. 9.985, são espaços territoriais com recursos e características naturais relevantes. Sua proteção legal existe com o objetivo de manter o patrimônio biológico brasileiro, ao proteger os diferentes ecossistemas, habitats e espécies de animais presentes em cada uma dessas áreas.

A Reserva Particular do Patrimônio Natural é uma categoria dentre essas, portanto continua sendo um local de preservação. Elas ainda tem como objetivo a conservação e proteção de patrimônio ambiental, recursos hídricos e naturais, equilíbrio ecológico e climático, beleza e ambientes históricos. A educação, pesquisas científicas e o ecoturismo também são razões importantes. A grande diferença é que, neste caso, a área natural não fica sob o domínio do Estado, mas sim de um poder particular que tenha interesse no investimento.

Como funciona uma RPPN

O Decreto 98.914, em 1990, permitiu a criação desse tipo de reserva. Depois, o decreto mudou para o de número 1.922/1996, e então a RPPN foi considerada uma das categorias das Unidades de Conservação depois da publicação da lei N. 9.985, em 2000. Atualmente, elas são regidas pelo Decreto nº 5.746/2006.

Uma RPPN é definida como tal pela vontade voluntária de seu proprietário, seja ele uma pessoa física ou jurídica. Ele ou ela deve se encaminhar para o órgão ambiental estadual ou municipal, se for o caso, ou para o ICMBio, quando a reserva pretende ser de âmbito federal. Os documentos necessários são um requerimento da criação da RPPN, cópias autenticadas da identidade do proprietário e cônjuge se houver (ou do procurador no caso de pessoas jurídica), cópia do certificado do cadastramento no CNIR, prova de quitação do ITR, planta da área total da propriedade com indicação do que virá a ser a reserva, entre outros. O órgão ambiental procurado vai solicitar todas essas informações.

Se o terreno possuído, rural ou urbano, apresentar potencial para se encaixar como terreno de conservação, ele estará em condições de ser classificado como RPPN. Depois de solicitada a avaliação, um laudo técnico será emitido, informando se o local é apropriado. Quando isso acontecer e o proprietário concordar, não há mais como voltar atrás: a proteção ambiental é perpétua. A propriedade continua sendo privada, entretanto.

Como é uma ação voluntária do proprietário, é ele também que decide qual exatamente a área que será considerada uma reserva. Não um tamanho mínimo ou máximo. Depois que a região já for uma RPPN, apenas uma lei dentro do SNUC poderá reduzir o tamanho original.

Os donos de uma Reserva Particular do Patrimônio Natural também ganham alguns benefícios quando decidem dar essa classificação para seus terrenos. Entre eles, estão:

– O direito mantido de propriedade
– Inclusão na Confederação Nacional de RPPN e na Associação de Proprietários de Reservas Particulares de Minas Gerais (Arpemg)
– Cooperação com entidades públicas e privadas na proteção, manejo e gestão da RPPN, se for assim desejado
– A isenção do ITR, Imposto Territorial Rural, no que for referente à área da RPPN
– A prioridade na análise de eventuais projetos pelo FNMA, Fundo Nacional de Meio Ambiente
– A preferência na análise de eventuais pedidos de crédito agrícola pelas instituições de crédito, em qualquer propriedade que incluir uma RPPN
– Aumento das possibilidades de apoio de órgãos governamentais para fiscalizar e proteger a área

Por isso, é do interesse de muitos proprietários transformar seus terrenos em RPPN.

Quantas RPPNs existem no Brasil?

Atualmente, há cerca de 640 unidades de Reserva Particular do Patrimônio Natural no país. O número vem do Sistema Informatizado de Monitoria de RPPNs, o SIMRPPN. A maior área protegida está no Mato Grosso, com 172.980 hectares dispostos em 15 reservas particulares. Apesar disso, o estado com o maior número de reservas é a Bahia: são 102 delas, cobrindo um total de 46.817 hectares. Minas Gerais fica em segundo lugar no quesito quantidade, com 88 reservas.

Exemplos:

– Reserva Natural Salto Morato, Guaraqueçaba (PR)
RPPN federal, mantida pela Fundação Boticário, ocupa 2.253 hectares e possui centenas de espécies de animais, inclusive alguns ameaçados de extinção. Oferece centro de pesquisas e programas de educação ambiental. Moradores locais têm entrada gratuita.

– RPPN Sesc Pantanal, Barão de Melgaço (MT)
Possui mais de 106 mil hectares e é considerada por muitos como a RPPN com o melhor manejo no Brasil. Também conta com centenas de espécies de animais de todos os tipos.

– Reserva Rio das Furnas, Alfredo Wagner (SC)
Renato Rizzaro e Gabriela Giovanka são os proprietários da área, que é fechada ao público. O acesso é restrito aos pesquisadores, que tem como objetivo maior estudar a variedade de fauna local.

Serpentes

Popularmente conhecidas como cobras, as serpentes são répteis de sangue frio. Fazem parte do filo Chordata, classe Reptilia e ordem Squamata (possuem escamas). Embora não tenham patas, esses animais conseguem se locomover, com rapidez, deslizando o corpo alongado. Algumas vivem em ambientes terrestres, enquanto outras são aquáticas, moram em rios e mares. São animais ectotérmicos, porque a temperatura do corpo varia conforme o ambiente onde estão.

Serpentes

Em regiões de climas quentes, prevalecem as espécies endêmicas ovíparas, aquelas que colocam ovos, tais como a falsa coral e as pítons. Onde o clima é temperado, vivem as serpentes vivíparas, que mantém os filhotes dentro do corpo durante o período de gestação, como a jiboia, sucuri, cascavel e jararaca.

Nem todas as serpentes venenosas são consideradas peçonhentas, pois várias espécies não possuem dentes para inocular o veneno. A maior parte dos casos de ofidismo, acidentes envolvendo cobras peçonhentas, no Brasil, está relacionada a picadas de jararacas. Outras cobras venenosas bastante conhecidas são a cascavel e coral verdadeira. Porém, a maioria das serpentes brasileiras não é venenosa. Cerca de 30% das cobras encontradas no Brasil são classificadas como peçonhentas.

Características gerais das serpentes

1. Mandíbula: as serpentes possuem enorme capacidade para abrir as mandíbulas. Com isso, elas conseguem engolir presas grandes, muitas vezes, maiores do que elas próprias. Isso é possível porque a mandíbula das serpentes possui articulação dupla, o que possibilita tamanha abertura da boca. As duas partes da mandíbula estão presas somente a um ligamento, o qual, por ser muito elástico, possibilita uma grande abertura. Dessa forma, as serpentes ingerem as presas com facilidade.

2. Ausência do esterno: serpentes não possuem o esterno, osso existente em animais vertebrados, cuja função é unir as costelas. As cobras possuem cerca de 300 costelas e, como elas ficam livres, elas conseguem expandir o diâmetro do corpo ao engolir grandes presas. Durante esse processo, as serpentes não ficam sufocadas, sem ar, porque existe uma abertura na traqueia, abaixo da língua. Essa característica garante às serpentes a capacidade para respirar enquanto ingerem as presas.

3. Digestão longa: as serpentes, após se alimentarem, precisam de um tempo longo para conseguir digerir a presa, principalmente, quando essas são maiores do que elas. O sistema digestivo das serpentes consegue digerir praticamente todas as partes da presa, eliminando somente as garras e pelos dos animais engolidos. Após completar a digestão, as serpentes eliminam os restos de alimento e o ácido úrico.

4. Sentidos: como não possuem canal auditivido (ouvidos), as serpentes conseguem identificar os barulhos através das vibrações captadas no solo. Serpentes possuem língua bífida, ou seja, uma língua dividida em duas partes, responsável por dois sentidos das cobras, olfato e o tato. Tocando a língua na superfície, as serpentes captam partículas que mostram o rastro de presas e possibilitam reconhecer o sexo de outras cobras (macho ou fêmea). O mecanismo que possibilita essa identificação é o órgão de Jacobson, formado por orifícios, no céu da boca das serpentes, e conectados às estruturas olfativas. Entre os olhos e as narinas das serpentes, existe uma depressão denominada fosseta lacrimal ou loreal, que capta as oscilações da temperatura ambiente. É mais uma característica que ajuda as serpentes a perceberem a presença de outros animais.

Serpentes peçonhentas

As serpentes peçonhentas possuem glândulas de veneno na cabeça. Um canal liga essas glândulas aos dentes situados no maxilar superior, por onde sai o veneno, na hora do ataque. O veneno de cobra possui neurotoxinas, substâncias que destroem o sistema nervoso da presa, hemotoxinas, que provocam hemorragia, e enzimas proteolíticas, que causam danos aos tecidos. Outra substância potente é a miotoxina, que destrói as células dos músculos.

As najas, por exemplo, além de injetar o veneno, são capazes de lançar um jato de veneno até três metros de distância. Não é à toa que as najas também são chamadas de serpentes cuspideiras.

Serpentes áglifas, como a sucuri e a jiboia, não possuem dentes para inocular veneno. Matam a presa por constrição, ou seja, elas se enrolam no corpo do animal abatido, o que provoca a paralisação do fluxo de sangue. Sem circulação sanguínea normal, o oxigênio não chega ao coração e ao cérebro, por isso, as presas morrem.

Serpentes solenóglifas e proteróglifas possuem dentes injetores de veneno. Fazem parte do grupo das solenóglifas, cobras como a cascavel, surucucu e a jararaca, as quais, ao atacar a presa, inoculam potentes venenos. A coral verdadeira pertence ao grupo das proteróglifas.

Após a picada de cobra, é importante não movimentar o corpo para não espalhar o veneno. A vítima deve ser levada, o mais rápido possível, ao hospital ou pronto-socorro para receber o soro antiofídico. Não amarre nem faça cortes no local da picada. Também não aplique medicamentos sobre a lesão. A única coisa a fazer é buscar ajuda médica o quanto antes.

Para evitar acidentes, é necessário usar botas de cano alto, ao percorrer áreas de mata. Ao fazer limpeza em quintais e locais com muito entulho, use luvas grossas e longas, mas não introduza as mãos em buracos, canos e lugares escuros que possam servir de esconderijo para cobras.

Período Simples e Composto

A sintaxe é dividida em vários elementos e, entre eles, estão o período simples e composto. Essas duas estruturas da Língua Portuguesa são posteriores ao estudo da frase e oração e permitem o entendimento de todo o contexto, através do que é conhecido como ‘ação verbal’. A diferença entre ambas é a quantidade de orações: uma (período simples) ou mais (período composto).

Período Simples e Composto

Para entendermos melhor como os dois elementos funcionam, precisamos entender onde eles se encaixam. Primeiramente há a frase, na qual haverá uma mensagem através de um enunciado. A palavra ‘obrigado’, por exemplo, por si só já constrói uma frase. Quando há a presença de um verbo (ou ação), denominamos essa estrutura de oração, como ‘estou lendo este artigo’. Conhecendo ambos os conceitos, passamos ao entendimento de período simples e composto.

Período simples ou oração absoluta

Também conhecido como oração absoluta, o período simples contará com apenas um verbo. Nesse caso, haverá apenas um sentido completo, discriminado sintaticamente dentro da frase, independentemente do tempo verbal. Aqui, não há segredos: uma frase estruturada com uma ação será, definidamente, um período simples ou oração absoluta.

Para ficar mais claro, trazemos alguns exemplos dessa estrutura linguística:

– Começamos logo pela manhã (ação: começamos)

– Já estou aqui (ação: estou)

– Ele aparecerá na televisão (ação: aparecerá)

– Quanto lhe devemos? (ação: devemos)

– Preciso estudar (ação: preciso)

– Você teve a oportunidade (ação: teve)

Período composto

Como dito, a grande diferença entre período simples e composto é o número de orações: o primeiro conta com apenas uma e o segundo com duas ou mais. Quando falamos desse tipo de frase com sentido completo, precisamos dividir em vários tópicos, pois, diferente do período simples, há várias características próprias do composto.

O período composto pode ser dividido em três estruturas hierárquicas: o ‘período composto por coordenação’, o ‘período composto por subordinação’ e o ‘período composto por coordenação e subordinação’. É importante destacar cada um devido a suas nuances próprias dentro da sintaxe.

• Período composto por coordenação
Nesse caso haverá duas ou mais orações que serão coordenadas, ou seja, possuirão própria autonomia dentro da frase, e ajudarão para criar o entendimento total do que quer se expressar.

Exemplo: quero chegar logo e comer muito (as ações são: chegar e comer).

Contudo, períodos compostos coordenados podem ser divididos em cinco estruturas de ideia na relação entre primeira e segunda oração: as que explicam, concluem, alternam, somam, opõe ou adicionam. Entenda:

– Coordenada explicativa: quero chegar logo porque estou com fome.

– Coordenada conclusiva: estou com fome, por isso quero chegar logo.

– Coordenada alternativa: ou chego logo ou fico com fome.

– Coordenada aditiva: quero chegar logo e comer muito.

– Coordenada adversativa: mesmo se chegar logo não vou comer muito.

• Período composto por subordinação
Avançando nos estudos, teremos o período composto por subordinação. Nesse caso, as orações se complementam e são interdependentes. Ou seja: o sentido de toda a mensagem precisa que a primeira oração seja relacionada com a segunda (e as demais, se necessário).

Elas podem ser divididas em substantivas (subjetiva, objetiva direta, objetiva indireta, completiva nominal, predicativa, apositiva), adverbiais (casual, consecutiva, final, temporal, condicional) e adjetivas (explicativa e restritiva).

Cada uma delas conta com características próprias e são apresentadas de acordo com a principal oração, tempo verbal, objeto direto ou indireto, predicativo, esclarecimento, restrição, entre outros pontos.

Alguns exemplos de períodos compostos por subordinação:

– Ela soube o que nós fizemos.

– Procurando muito encontrei, mas já tinha perdido muito tempo.

– Daqui um tempo você perceberá que isso sairá em todos os jornais.

– Compre mais barato para vender por um preço maior.

– O João, que venceu o concurso, é o mais capacitado para o cargo.

• Período composto por coordenação e subordinação
Há, ainda, um terceiro caso, que unirá as duas estruturas de oração anteriormente explicadas aqui: o período composto por coordenação e subordinação. Ele funciona da seguinte forma: a oração principal será a referência de duas (ou mais) orações subordinadas e duas (ou mais) orações coordenadas.

Para entender melhor, utilizamos de um exemplo:

– É importante que ele chegue a tempo e devolva meu dinheiro.

Ou seja: quando pegamos a oração que diz ‘que ele chegue a tempo’, não tem relação com a segunda oração ‘(que ele) devolva meu dinheiro’, mas as duas estão subordinadas a primeira oração que aqui é discriminada como ‘É importante’.

Concluindo, ao entender como funciona o período simples e composto, suas estruturas básicas e as formas de serem aplicadas na Língua Portuguesa, o método recomendado é a realização de exercícios (principalmente nos compostos), que ajudem a fixar o entendimento de cada um deles. Sem segredos, ao contar o número de verbos (ações) dentro de uma oração, você terá a facilidade de entender qual dos dois períodos ela se aplicará.

Lembrando que esse conteúdo é voltado à sintaxe do nosso idioma e, dessa forma, estudar e conhecer outros elementos do Português contribui para o entendimento mais rápido do funcionamento da língua.

Ácido Fluorantimônico

O ácido fluorantimônico, que é representado através de sua fórmula molecular HSbF6, pode não ser conhecido da maioria das pessoas, mas ostenta um título grandioso: o ácido mais potente encontrado no nosso planeta pela Química Moderna. Através da reação exotérmica entre fluoreto de hidrogênio e antimônio pentafluoretado – ou seja, a junção dos compostos tem a origem do seu nome – essa substância é altamente corrosiva.

Ácido Fluorantimônico

Com uma acidez superior a mil vezes a do ácido sulfúrico puro, o ácido fluorantimônico possui algumas características peculiares até para os próprios profissionais químicos: não é inflamável, reagindo com quase todos os solventes orgânicos, decompondo-se rapidamente e causando explosões quando solúvel em água – em estado de ebulição ele também é decomposto. Sua forma de base pode ser relacionada a um xarope incolor.

Mas, como a Química chegou a definir esse como sendo o ácido mais forte do mundo? Através da conceituação de ‘superácidos’: qualquer componente que supere em 100% o ácido sulfúrico se enquadra nessa categoria. Para entender bem o que é, quais as propriedades e o que representa o ácido fluorantimônico, trazemos um resumo sobre o componente.

O ácido mais forte do mundo

O primeiro passo para entendermos como funciona a classificação da ‘potência’ de acidez de um componente, é compreendermos quais são suas propriedades físico-químicas: quanto mais íons do tipo H conter um ácido, mais reagente ele será quando interpelado a outras substâncias. Em relação ao sulfúrico, o ácido fluorantimônico possui uma ordem abstrata de íons 20 quintilhões de vezes a mais, comparado ao ‘rival’.

Para se ter uma ideia de como essa substância é potente, ela ultrapassa qualquer escala convencional de pH – conhecida como a equação de Henderson-Hasselbach. Para isso, é preciso muito mais: a utilização da função de acidez de Hammet, que determina uma escala descrente negativa – ou seja, quanto menor for o número, mais potente é o ácido. No caso do fluorantimônico, seu HO é -31,3, contra -12 do ácido sulfúrico.

Conhecendo esse gigante corrosivo, você deve estar se perguntando: e na prática, onde é utilizado o ácido fluorantimônico? Devido a suas características próprias, esse tipo de substância tem papel importante em situações que dependem da reação com outras moléculas que, utilizado por elementos com acidez menor, não causariam nenhum efeito.

Os principais usos do ácido fluorantimônico estão voltados à forma de catalisadores de reações orgânicas e isso é primordial, principalmente, para a indústria de extração de petróleo. Isso porque não há outro reagente com esse recurso fóssil que não seja da ordem dos superácidos, sendo amplamente utilizado por essas indústrias.

Suas aplicações corriqueiras no setor petrolífero são: gaseificação do carvão mineral e quebra de moléculas oriundas do chamado ‘petróleo cru’, que irá criar uma composição plástica altamente resistente, além de octanos gasosos que não contêm chumbo. Esses processos, geralmente, são feitos por máquinas ultramodernas e não apresentam risco à saúde dos operadores.

Curiosidades sobre superácidos

Apesar de não ser muito comum, o ácido fluorantimônico ainda possui diversas características que, além de darem o título de elemento químico mais corrosivo do mundo, mostram sua importância ao longo da história da Química Moderna. Para se ter uma noção, ele é superior a outros ácidos que são amplamente corrosivos, como:

– ácido trifluormetanosulfônico: também muito mais potente que o sulfúrico, essa substância é utilizada em reações orgânicas, como na indústria de petróleo, como catalisador;

– carborano superácido: uma junção entre carbono, hidrogênio e boro em que suas reações são superácidas;

– ácido mágico: uma junção entre dois tipos de ácidos – o fluorossulfônico e pentafluoreto de antimônio, extremamente explosivo ao reagir com a água.

Mesmo com todos sendo bem superiores ao sulfúrico, as substâncias acima descritas podem ocupar ‘boas posições’ em níveis de acidez, mas ainda ficam atrás do ácido fluorantimônico. Com toda essa potência é importante destacar que esse elemento é guardado em locais específicos, evitando maiores complicações.

Os recipientes que recebem o fluorantimônico são feitos de PTFE (politetrafluoretileno), semelhantes aos recipientes plásticos mais comuns que encontramos em qualquer estabelecimento. A diferença entre os polímeros é que o PTFE, ao invés de ser composto por hidrogênio, como as embalagens convencionais, possui a composição de flúor – o que evita a reação junto ao superácido.

Mas ele pode corroer tudo? Não. Apesar do ácido fluorantimônico ser o mais potente conhecido, não significa que ele irá ‘furar’ ou ‘corroer’ sempre que entrar em contato com alguma superfície – ou, de outra forma, ele não seria envasado e utilizado na indústria petrolífera. Sua ação corrosiva depende da reação química com a substância na qual ele entrar em contato.

No caso da água, como já citado, ele irá se decompor, mas antes causa uma reação altamente explosiva. Em materiais orgânicos, como em contato com o nosso corpo, traz danos irreversíveis em poucos segundos. Por isso, ele é restritamente vendido para setores específicos que irão utilizar o superácido mais potente do mundo da forma correta.

Guerras Púnicas

Desde o momento que o homem deixou de ser nômade, especialmente devido à agricultura que permitiu que deixasse de ser coletor, as brigas por território e por controle dos mesmos se tornou uma regra nas mais diversas partes do mundo, ou seja, ocorreram na Ásia, África, Europa e, mais tarde, nas Américas.

Guerras Púnicas

No entanto, houve guerras por controle de territórios que influenciaram de maneira ímpar a geopolítica atual, e justamente por isso estão presentes – até porque seria praticamente impossível inserir todas as guerras no currículo de história dos níveis fundamentais e médio de ensino. Esse é o caso das Guerras Púnicas.

Contexto histórico

Os conflitos em questão duraram exatos 100 anos, se estendendo de 264 a.C a 164 a.C., ou seja, trata-se de um evento histórico que ocorreu na Antiguidade. Fala-se de guerras, no plural, pois essas consistem em uma série de três conflitos que modificaram consideravelmente a geopolítica da Sicília (Itália) e do Mediterrâneo.

O estopim do conflito foi a rivalidade existente entre Roma, grande potência da Antiguidade, e Cartago, outra grande potência, localizada no norte do continente africano. Cartago tinha grande poder, e controlava todo o comércio realizado no Mediterrâneo. Por isso seus comerciantes tinham colônias espalhadas por toda a região, incluindo Sardenha, Sicília, extremamente rica na produção de grãos, Península Ibérica (territórios que atualmente correspondem a Portugal e Espanha, na qual era feita a exploração de prata) e, claro, por toda a África. Aliás, é por causa de Cartago que tais conflitos são conhecidos como Guerras Púnicas, uma vez que os romanos chamavam os cartagineses de “punici”, que significa “fenícios”.

Dessa maneira, a Sicília era habitada por muitos cartagineses, em conflito constante com os gregos presentes nas colônias gregas Nápoles e Taranto. Tendo como premissa a hegemonia dos romanos na época, eles conquistaram os portos do sul na península itálica, fazendo com que os interesses das colônias gregas passassem a ser também seus interesses. Assim, os conflitos entre romanos e púnicos na verdade se basearam na intervenção de Roma, na rivalidade entre gregos e cartagineses.

As guerras e consequências

Conforme dito acima, houve três guerras entre cartagineses e romanos, e são elas que estão descritas abaixo.

-1° Guerra: ocorreu entre 264 a.C. e 241 a.C. Na verdade, tratou-se de uma batalha naval na qual Roma saiu vitoriosa. O que é interessante notar é a inteligência dos romanos, pois Cartago era a principal potência marítima da época, ou seja, praticamente impossível de serem derrotados em mar. No entanto, com a ajuda dos gregos, os romanos conseguiram não só reproduzir os barcos utilizados pelos cartagineses como também inventar as pontes, um projeto de engenharia relativamente simples, mas que permitia que os romanos entrassem nos barcos inimigos, permitindo o combate corpo a corpo. Iniciou-se com a intervenção romana em Messina e terminou com a conquista romana de Córsega, Sardenha e Sicília;

-2° Guerra: o protagonista desse conflito, que se desenrolou entre 218 a.C. a 201 a.C., foi o general cartaginês Aníbal Barca, que não só conseguiu diversas conquistas sobre Roma como também realizou o feito de atravessar os Alpes, complexo montanhoso que corta grande parte dos países europeus, marcados pelo clima intenso e grandes altitudes. Diante das derrotas consecutivas, Roma decidiu atacar Cartago, fazendo com que o general tivesse que voltar a sua cidade para protegê-la. Mais uma vez, Roma saiu vitoriosa e conseguiu o controle sobre a Península Ibérica;

-3° Guerra: ocorreu entre 149 a.C. e 146 a.C., tendo como principal consequência a vitória de Roma, implacável sobre Cartago. O general romano Emílio Africano atacou Cartago novamente, conquistando a cidade e escravizando seus moradores. Além disso, foi jogado sal sobre todo o território para que o solo não mais produzisse, encerrando a série de conflitos.

As consequências de sair vitoriosa das Guerras Púnicas para Roma foram muitas. Em termos sociais e devido ao crescimento do comércio, surgiu uma nova classe social: os comerciantes, também chamados de homens novos e cavalheiros.

Em termos socioeconômicos, ocorreu uma grave crise em Roma, pois com o crescimento do número de escravos, grande parte dos cargos ocupados pela plebe não eram mais necessários, causando o desemprego em massa.

Como as Guerras Púnicas permitiram a conquista do Mediterrâneo Ocidental por Roma, isso serviu como porta de entrada para que os romanos conquistassem todo o mediterrâneo e grande parte da Europa, ou seja, se tornassem uma nação hegemônica.

Por fim, com a conquista de novos territórios havia maior oferta de produtos, o que fez com que os pequenos e médios proprietários italianos entrassem em crise e fossem obrigados a vender suas terras ao Estado e latifundiários, aumentando ainda mais a hegemonia do estado Romano.

Como resultado de todas essas consequências, a configuração do poder e os territórios da Itália, grande parte da Península Ibérica e norte da África foram modificados, ficando as bases para que os eventos históricos posteriores ocorressem.

Plástico comestível

O plástico comestível, autenticamente brasileiro, foi criado pela Embrapa Instrumentação, no município de São Carlos (SP) e trouxe uma série de benefícios para a sua utilização, que vai desde a incorporação junto aos alimentos, em forma de embalagens, até práticas sustentáveis de reaproveitamento de rejeitos provindos da indústria alimentícia que seriam despejados e decompostos.

Plástico comestível

Segundo a própria Embrapa, o plástico comestível pretende trazer novas formas de consumo e conservação de orgânicos e surgiu através de um investimento de R$ 200 mil, destinada a Rede de Nanotecnologia Aplicada ao Agronegócio (Agronano). Com engajamento de pesquisadores e cientistas, a Empresa Brasileira de Pesquisa Agropecuária destaca que o produto serve para inúmeras funções. Veja quais e como funciona o processo.

Utilização do material

O plástico comestível conta com inúmeras funcionalidades, mas a principal está na indústria alimentícia. Películas plásticas que envolvem uma pizza, por exemplo, podem ser agregadas ao alimento quando forem assadas – garantindo sua conservação antes da venda, não sendo necessário remover a película, como os plásticos industriais comuns de massas desse gênero que encontramos nos dias atuais.

Não apenas a possibilidade de consumir o plástico comestível foi trazida com essa invenção brasileira: o material também foi apresentado em alguns sabores, como tomate, espinafre, mamão e goiaba, entre outros. Com essas vantagens, o plástico pode ser utilizado não apenas como película protetora, mas também poderá contribuir no sabor e tempero de diversos alimentos advindos da indústria.

O chefe-geral da Embrapa Instrumentação, Luiz Henrique Capparelli, deu alguns exemplos de como ele poderá ser aplicado no cotidiano das pessoas: sachês que poderão ser dissolvidos na sopa, dando um tempero próprio ou até mesmo aves, como o peru, envolvidos em películas com sacos feitos da laranja, entre outras formas de utilização.

O plástico comestível tem, em sua origem, alimentos desidratados, como polpas de frutas que, junto a um nanomaterial utilizado pela Embrapa, torna a película muito semelhante ao plástico comum, utilizado em vários segmentos. A descoberta mostra que esse elemento orgânico pode ser até três vezes mais rígido que os plásticos comuns.

Sua fabricação segue um padrão: conhecido como liofilização, o processo segue as seguintes etapas:

– Desidratação;

– Congelamento, com a água passando do estado sólido direto para o gasoso (sublimação);

– Manutenção dos nutrientes;

– Junção ao nanomaterial (que dará a ‘liga’);

– O plástico é exposto a raios ultravioletas em uma fôrma que, em minutos, conclui seu processo de fabricação.

Redução do desperdício e práticas sustentáveis

Não apenas para dar um novo sabor ou ser utilizado como tempero, que os plásticos comestíveis possuem enormes benefícios. Dois pontos são fundamentais, segundo a Embrapa: a redução exponencial do desperdício de alimentos e práticas sustentáveis – visto que o plástico comum demora, em média, 400 anos para se decompor na natureza.
Alimentos reaproveitados

O desperdício de orgânicos, problema endêmico no Brasil, poderá ser reduzido com a utilização do plástico comestível. O chefe-geral da Embrapa cita frutas e verduras que, após um determinado tempo de exposição, seja por uma aparência não agradável ao consumidor ou seu próprio tempo de maturação, serão reutilizadas na indústria de plásticos comestíveis.

Com essa ideia, reduzem-se os custos de produção do material, visto que os alimentos serão reaproveitados, e isso poderá ser repassado ao consumidor na precificação. Com a viabilidade do projeto, parcerias entre indústrias do plástico que pode ser ingerido, e locais que vendem orgânicos, como feiras e supermercados, trazem benefícios a todos.

O plástico comestível também desponta como uma prática sustentável. Com a demanda crescente de materiais orgânicos e a redução do lixo, o material reduziria em grande parte o plástico convencional, derivado do petróleo. Com incentivos de governos e entidades para o processo, mais empresas se adequariam às necessidades – aumentando o investimento em pesquisas e, consequentemente, na capacidade de novos métodos de fabricação.

O projeto do plástico comestível demorou duas décadas de pesquisa junto a Embrapa Instrumentação. Entre 2014 e 2015, os pesquisadores divulgaram os primeiros resultados e, de lá para cá, novas formas de utilização do material vem sendo testadas, principalmente dentro da própria indústria alimentícia. Ainda não há um prazo para que eles cheguem às prateleiras do mercado, mas uma coisa é certa: o plástico comestível é totalmente seguro.

Reconhecido pela comunidade científica internacional, o material passa, no momento, por testes para aumentar sua durabilidade – principalmente em condições como a temperatura ambiente. O principal estudo, nesse ponto, é a utilização do polissacarídeo que forma a carapaça dos caranguejos, visto que esse componente tem diversas capacidades antibacterianas.

Mudança de cores no plástico, apontando o estado de conservação do alimento, ainda em fase de pesquisa, também poderão contribuir para evitar o consumo de alimentícios fora do prazo. Reduzindo assim o desperdício, doenças gastrointestinais causadas por microrganismos e, como dito anteriormente, reduzindo a enorme utilização de plástico convencional no Brasil – que chega a 4 milhões de toneladas anuais.

Tipos de tratamento de efluentes

A água é o bem mais precioso para qualquer ser vivo nesse planeta, indo desde as criaturas microscópicas, passando pelo ser humano e chegando a grandes animais e plantas. Quando o assunto é esse bem vital para a manutenção da vida, o Brasil se destaca.

Tipos de tratamento de efluentes

O país conta com 55.467 km² de bacia hidrográfica, ou seja, possui a maior quantidade de território em rios de todo o mundo, que produz grandes belezas naturais. Como, por exemplo, o rio Amazonas, que possui a maior vazão de todo o mundo, e o pantanal, a maior superfície alagada de todo o planeta.

Infelizmente devido à ação do homem não só a bacia hidrográfica do Brasil, como a de todo os países do mundo, se encontram ameaçadas. Os motivos dessas ameaças são muitos, como o desmatamento que deixa o solo exposto, causando o assoreamento dos rios.

No entanto, atualmente um dos motivos de danificação de águas mais preocupante é o despejo dos resíduos da atividade humana, não tratados, que são jogados diretamente nos rios, fazendo com que os mesmos fiquem poluídos e, em muitos casos, levando mesmo à morte de rios. É o caso de um trecho do rio Tietê, na região metropolitana de São Paulo, considerado como morto, pois devido à poluição não há oxigênio suficiente na água para que qualquer espécie sobreviva.

Devido a isso, neste artigo será tratado de um assunto de extrema importância e cada vez mais em pauta na rotina de ambientalistas e de órgãos ambientais das esferas de governo federal, estaduais e municipais: o tratamento de efluentes, mais especificamente, os tipos de tratamento atualmente disponíveis e utilizados.

Importância do tratamento de efluentes

A primeira coisa que deve ser esclarecida é o que se entende por efluentes. Na verdade, apesar do nome pouco comum, trata-se de um conceito bastante simples, pois corresponde à água que contêm resíduos, quer sólidos, líquidos ou gasosos, resultantes da atividade humana. Para uma classificação mais precisa, os especialistas separam os efluentes entre aqueles provenientes de residências e de indústrias mais preocupantes.

Para se ter ideia de como as indústrias são grandes poluidoras das águas, as chaminés industriais são as que mais produzem efluentes atmosféricos, pois as partículas poluentes são lançadas na atmosfera e, quando chove, elas se misturam à água que, percorrendo seu caminho natural, acaba sendo despejada em rios e mares.

Um exemplo claro do efeito desse tipo de poluição pode ser encontrado no já mencionado rio Tietê, em especial no trecho dele que se encontra na região metropolitana. Uma solução para contornar esse problema é investir na despoluição dos rios, algo que vem sendo feito no Tietê. No entanto, trata-se de uma medida pouco eficaz e extremamente cara.

Assim, a coisa mais sábia e barata a ser feita tanto pela esfera governamental quanto pela esfera privada é investir no tratamento de efluentes, para que os resíduos presentes nos efluentes despejados nos rios sejam as mínimas concentrações possíveis. É justamente os tipos de tratamento desses poluentes que serão abordados abaixo.

Opções de tratamento disponíveis

Os tratamentos mais comuns para efluentes são aqueles que utilizam processos físicos, algo que ocorre por vários motivos. O primeiro deles é que tais processos não necessitam de tecnologia aplicada. Dessa maneira, está disponível para um número maior de empresas e órgãos públicos a um preço acessível. Dentre os tratamentos mais comuns nessa modalidade, destacam-se:

-Decantação, que consiste em deixar a água parada para que os sedimentos contidos nela vão para o fundo e possam ser removidos;
-Filtração, por meio do uso de filtros com telas e membranas capazes de reter parte dos elementos poluentes;
-Separação centrífuga, que pode ser considerada como o contrário da decantação, uma vez que os sedimentos são separados por meio da agitação constante e em alta velocidade da água;
-Flotação, que funciona por meio das forças de atração, uma vez que as partículas poluentes são separadas da água por meio de bolhas de ar, para que posteriormente possam ser retiradas;
-Membranas de filtração, consistindo em um tratamento novo, mas altamente eficaz. Quando a água é forçada a passar pela membrana semipermeável, ocorre a separação das substâncias solúveis das insolúveis, tendo como principais pontos positivos a baixa necessidade energética, a fácil aplicação em contextos diversos e a dispensa da necessidade do uso de produtos químicos.

Outro tipo bastante comum de tratamento de efluentes consiste na utilização de substâncias químicas para realizar a retirada dos poluentes, e por isso são conhecidos como processos químicos. São exemplos desses métodos a neutralização e estabilização, a oxidação e a permuta iônica.

Por fim, existem os tratamentos biológicos, que figuram entre os mais eficientes e sustentáveis de todos, pois consistem no estímulo do crescimento de micro-organismos que utilizam a matéria orgânica como substrato, retirando as impurezas sem necessidade de nenhum aditivo químico. Além disso, dependendo da situação, os microrganismos também são capazes de remover nitrogênio, metais pesados como o mercúrio, nitrogênio e sólidos em suspensão da água, o que reduz drasticamente os impactos ambientais causados pelos efluentes.

Governo Collor de Mello

O governo Collor de Mello marcou a volta da democracia com a eleição direta para presidente após 21 anos de ditadura militar. Numa campanha marcada pelo fortíssimo apelo de marketing, Fernando Collor de Mello tomou posse a presidência da república com apenas 40 anos e ganhando de figuras tradicionais como Lula, Brizola, Ulisses Guimarães e Mario Covas.

Governo Collor de Mello

O caçador de marajás, como ficou conhecido, iniciou se governo causando grande impacto na economia do país e logo atingiu grande rejeição popular, que culminou com o fracasso dos planos implantados e as gravíssimas denúncias de corrupção que envolviam ministros e a primeira dama, eclodindo com a denúncia de seu irmão sobre esquemas de corrupção de sua campanha, liderados por PC Farias.

Collor de Mello colecionou marcas históricas: foi primeiro presidente eleito diretamente após a ditadura militar, o mais jovem e também o primeiro a sofrer impeachment e interromper seu governo na metade, sem que houvesse algum tipo de golpe de Estado.

Uma ditadura entre Jânio Quadros e Collor de Mello

Usando uma vassoura como símbolo de sua campanha política, onde prometia acabar com a corrupção do país, Jânio Quadros foi eleito o vigésimo segundo presidente do Brasil. Mas seu mandato não durou muito já que tomou posse em 31 de janeiro de 1961 e renunciou em 25 de agosto do mesmo ano, por pressões militares.

Fui substituído pelo vice João Goulart, o Jango, com muita controvérsia e que manteve não só os planos de governo de Jânio como também iniciou reformas de base e projetos sociais bastante relevantes para a população, mas mal visto pelos militares, a classe média, as elites e empresários. Até que foi destituído em 1964 por um golpe militar que durou 21 anos e que deixou um legado triste para a maior parte da sociedade brasileira, através de censuras, exílios, torturas, desenvolvimento desenfreado, dívidas externas e omissão.

Em 1985 surgiram campanhas em todo o país chamadas de Diretas Já, pedindo não só o fim do regime militar, mas também a volta da democracia com o direito do voto para presidente da república. Neste mesmo ano foram eleitos os civis Tancredo Neves e seu vice José Sarney, mas por meio de voto indireto através da câmara de deputados federais.

No dia de sua posse, no dia 15 de março de 1985, Tancredo Neves foi internado com diverticulite e morreu em 21 de abril do mesmo ano e Sarney assumiu o governo sendo o primeiro presidente civil após a ditadura. Junto a sua posse também ocorreu a dos deputados constituintes que fizeram uma nova Constituição, inclusive instaurando as eleições diretas para presidente em 1989.

A principal marca do governo Sarney foi a hiperinflação anual de 235% em média, um verdadeiro colapso na economia que criou vários planos econômicos e mudanças na moeda, em tentativas frustradas de conter o naufrágio.E foram as promessas de levantar a economia do pais, restaurar a democracia e a autoestima dos brasileiros que ilustraram os discursos dos candidatos a presidência da república. A população já estava ansiosa por eleições diretas e nomes famosos como Leonel Brizola, Lula, Maluf e Mário Covas, estavam presentes na vasta lista de 22 candidatos e de novos partidos, mas era um desconhecido pela maioria que despontava desde o início.

Com uma campanha semelhante a Jânio Quadros, Fernando Collor de Mello também prometia acabar com a corrupção no país. Prometendo acabar com os marajás da política com um caçador e mudar a economia do país, Collor fez uma campanha com forte apelo do marketing, demagogia e exibicionismo, com frases de efeito que convenceram a população de que era o candidato certo para acabar com a corrupção.

Mesmo que a bandeira da corrupção seja a mesma de Jânio Quadros, seu perfil era o oposto. Jovem, carismático e rico, Collor fazia parte de uma tradicional família de Alagoas, com histórico político e donos de redes de comunicação da região. Tinha o apoio de empresários, indústrias, elites e mídias, que geraram inúmeras controvérsias sobre manipulação e favorecimento. Curiosamente, também atraiu as camadas mais pobres da população, chamadas de “descamisados”’.

Conforme a nova lei, nenhum candidato conquistou a maioria dos votos válidos e foi preciso recorrer a um segundo turno entre os dois mais votados, Collor e Lula. Com assumidas vantagens em debates em redes de TV e sem pudores para vincular notícias falsas sobre o candidato adversário, causou pânico a parte da população, que o tornou o presidente do Brasil mais jovem da história e o primeiro eleito diretamente desde 1960.

Ascensão e queda de Collor

No ano que antecedeu sua posse, a inflamação atingiu o recorde de 1972,91%, tornando o assunto prioridade para qualquer presidente eleito, o que causou uma grande expectativa sobre Fernando Collor de Mello, que calçou sua campanha em mudar esse quadro e acabar com os corruptos.

No dia seguinte a sua posse foi decretado feriado bancário com a ajuda de Sarney e a nova ministra da economia Zélia Cardoso de Mello foi em cadeia nacional explicar como seria o Plano Brasil Novo ou Plano Collor como ficou mais conhecido. Era a volta do cruzeiro, congelamento de salários e preços, diminuição da estrutura administrativa com extinção de ministérios e órgão, e a mudança mais impactante de todas, o confisco dos depósitos bancários maiores que Cr$ 50.0000,00 por 18 meses.

O intuito do confisco era diminuir a quantia de moeda em circulação e melhorar os cálculos das aplicações financeiras. Aprovado pelo Congresso Nacional, o confisco bancário era ia contra os princípios da nova Constituição que dá direito a propriedade privada do cidadão. O assunto foi um debate recorrente pelos candidatos à presidência e não fazia parte da proposta de Collor.

A repercussão do plano entre a população foi a pior possível, com muitas pessoas perdendo seus negócios e poder aquisitivo, até mesmo houve casos de suicídio. No Congresso, Collor também não gozava de tranquilidade, já que sua legenda (PRN) tinha pouca tradição política e representatividade e o próprio Collor não se sentia a vontade de negociar com os parlamentares para que seus projetos fossem aprovados. Para compor seu ministério inicial, Collor optou por perfis técnicos e acadêmicos contra composição de políticos de carreira, até ceder em 1992 quando se instaurou uma grave crise de seu mandato.

O Plano Brasil Novo teve um breve momento de controle inflacionário, para então agravar ainda mais a economia. Junto a essa derrota, denúncias graves que envolviam pessoas ligadas diretamente ao presidente iniciou o declínio do mandato de Collor de Mello. As denúncias começaram em 1991 culpando ministros, amigos e até a primeira dama Rosane Collor de atos ilícitos e de corrupção.

Mas o grande detonador de seu governo aconteceu quando seu irmão, Pedro Collor e Mello concedeu uma entrevista a Veja onde revelou detalhes do esquema de corrupção comandado por Paulo César Farias, o PC Farias, tesoureiro de campanha de Fernando Collor de Mello.

As denúncias provocaram forte comoção nacional levando as ruas os chamados “Caras Pintadas””, que pressionaram o Congresso a realizar o impeachment do presidente. Em 29 de setembro e com maioria esmagadora, o processo de impeachment foi iniciado e Collor renunciou antes do resultado final dado pelo Senado, deixando a vaga de presidente para seu vice Itamar Franco.

A metodologia científica

A metodologia científica pode ser entendida como o método utilizado pelos cientistas em seus experimentos. Por isso, a técnica serve como uma grande aliada do estudiosos em busca de ampliarem os conhecimento sobre determinado assunto. Em suma, uma definição bastante precisa seria: uma série de diretrizes básicas a fim de gerar conceitos novos, bem como de corrigir ou expandir noções já existentes.

A metodologia científica

Passo a passo

O primeiro passo do método é a observação por parte do pesquisador. No geral, o procedimento começa com a identificação de algum fenômeno físico ou químico que justifique maior observação. Estabelece-se em seguida uma problematização, que é o porquê do acontecimento em pauta.

Com base nessa questão inicial o especialista forma uma hipótese, ou seja, uma possível resposta para o ocorrido. Aqui, é fundamental destacar que o procedimento deve ser embasado em ciência bem conceituada e de qualidade. Caso a hipótese for validada por uma comissão julgadora composta por outros cientistas, ela se torna lei.

Foi isso o que ocorreu com a Lei de Lavoisier, por exemplo. Ao observar a massa de um sistema específico antes e após a reação, Lavoisier notou que ela permanecia igual. No entanto, para confirmar e dar crédito à sua tese, seria necessário mostrar provas. Sendo assim, o estudioso executou uma quantidade de experimentos que envolviam medir com cuidado tanto as massas dos reagentes quanto a dos produtos.

Os elementos usados foram os seguintes:

Reagentes: soluções de cloreto de sódio e nitrato de prata;
Produtos: precipitado de cloreto de prata e solução aquosa de nitrato de sódio.

Mais adiante, empregando as mesmas substâncias, Lavoisier repete o teste várias vezes para assegurar que a sua suposição era verdadeira. O resultado foi comprovado e logo se firmou como uma das leis científicas mais conhecidas. Essa norma é resumida na frase: “na natureza nada se perde, nada se cria, tudo se transforma”.

Chamada ainda de Lei da Conservação da Massa, a lei esclarece que em qualquer reação química não existe mudança na massa do sistema.

Portanto:

Soma das massas dos reagentes = Soma das massas dos produtos.

Os elementos da metodologia científica

Em suma, o método científico é constituído por 6 elementos. São eles:

• Observação: podem ser feitas a olho nu ou com instrumentos apropriados. Porém, necessitam de controle para que os seus resultados não sejam influenciadas por falhas nos sentidos humanos;

• Descrição: o experimento tem de ser replicável para se testar as hipóteses;

• Previsão: as hipóteses devem consideradas válidas para análises conduzidas no passado, no presente e no futuro;

• Controle: o controle é o que garante a exclusão de eventuais fatores que possam alterar os resultados do experimento;

• Falseabilidade: toda hipótese científica tem de ser proposta para permitir contestação e verificação.

• Explicação das causas: em qualquer área da ciência, apresentar as causas do fenômeno relatado é o cerne do trabalho.

História da metodologia científica

A metodologia científica como é utilizada na atualidade é um reflexo direto da obra de diversos pensadores clássicos que culminaram no “Discurso do Método”, escrito por René Descartes. Em grande parte do causa desse texto, o autor é considerado por muitos como o “primeiro pensador moderno”. Contudo, descrições do método datam das civilizações antigas, como Antigo Egito e Grécia Antiga. Mas foi apenas na sociedade islâmica, acerca de mil anos, que os pilares do que se tornaria a metodologia científica foram elevados. Tamanha evolução se deu sobretudo pela atuação do estudioso Ibn Al- Haytham devido ao seu trabalho sobre ótica. Os preceitos seguidos por ele já lembravam os métodos de Descartes, bem como os de hoje. Isso porque a técnica continha: observação, pesquisa teórica que antecedia um experimento, a divisão por categorias e a comparação da hipótese segundo os resultados registrados.

O método científico é corroborado pela linha de pensamento de René Descartes, como mencionado anteriormente. Mais adiante, o processo foi aperfeiçoando de modo empírico por Isaac Newton, célebre físico inglês. A proposta de Descartes era alcançar s verdade a partir da dívida sistêmica e da divisão do problema em partes menores, fatores que serviram de base para as pesquisas científicas. Com a compreensão de um modelo mais simples, é viável incorporar aos poucos as demais variáveis para chegar ao todo.

A partir do círculo do Círculo de Viena, adicionaram-se a necessidade de verificação e o método indutivo. Além disso, Karl Popper mostrou que a verificação e o método indutivo sozinhos não bastam: um cientista deve procurar principalmente evidências que de sua hipótese esteja errada. Afinal, o propósito é entender a realidade como ela é e não como se gostaria que ela fosse.

Não só recentemente como também desde os seus primórdios, a metodologia científica é o centro de debates filosóficos. Indivíduos com aversão com pensamento cartesiano, de natureza mais rígida, com frequência citam as críticas organizadas por Edgar Morin. O filósofo francês sugere que, ao invés de se dividir o objeto de pesquisa em partes, o foco seja em uma análise sistêmica. Esse paradigma novo ganhou o nome de Teoria da Complexidade. Ainda que a abordagem não invalide por completo o método científico, ele implica uma maneira diferente de se empregá-lo nas especificidades de cada campo.

Pilhas ou Células Eletroquímicas

A utilização de produtos eletrônicos é necessária para diversas tarefas do dia a dia. Arrumações na casa, atividades em escritório, recursos em salas de aula, materiais em hospitais, mercados e outros estabelecimentos são situações e razões pelas quais o uso de equipamentos eletroeletrônicos é algo importante para que esses afazeres sejam concretizados. Feitos justamente para facilitar esses trabalhos, a falta deles requer a realização dessas atividades de forma manual, tornando tudo mais difícil.

Pilhas ou Células Eletroquímicas

Mas para que esses produtos funcionem, é preciso de energia. E essa energia precisa ser propagada por fontes que transmitam essa conexão de maneira eficaz. As pilhas ou células eletroquímicas costumam ser essas fontes mais comuns. Através desse dispositivo que a energia elétrica pode ser aproveitada desde o momento de ligar uma televisão com o controle remoto até fazer uma câmera fotográfica funcionar, por exemplo.

Dentro do conceito da Eletroquímica, é possível entender a importância do dispositivo e compreender também de que forma a energia elétrica é armazenada e fluída a esses produtos sem nenhum problema. Através de reações, essa energia é resultado de uma interação específica e ordenada dentro do dispositivo para que ela seja bem aproveitada.

Conceito e aplicação

Caracterizadas como um reservatório que consegue transformar energia química em energia elétrica, as pilhas carregam células eletroquímicas conhecidas como elétrons. Os elétrons são responsáveis em desencadear uma reação a ponto de promover uma energia elétrica pura. Nesse sistema, há a oxirredução, que é a reação que ocorre na composição e todos os elétrons são aproveitados para que a energia não fique fraca ou acabe muito rápido.

Esses dispositivos são constituídos de três partes: os eletrodos, a ponte salina e o fio metálico na parte externa. Cada um deles desempenha um papel de fazer com que a oxirredução ocorra e a transformação não fique congestionada ou aconteça em modo fraco.

• Eletrodos: todas as pilhas devem ter dois polos, conhecidos como eletrodos. Os eletrodos são paralelos e complementares (um lado é positivo e outro lado negativo). A parte positiva é o cátodo, que reduz o efeito oxidante, causando ganho dos elétrons em seu lado. Já o ânodo é a parte negativa, responsável em causar a oxidação dos elétrons, resultando na perda dos mesmos;

• Ponte salina: ela também é conhecida como o eletrólito do dispositivo. É a parte que mantém os dois lados, ânion e cátodo, neutros eletricamente para que não haja uma reação nociva. Esse controle é feito com íons migrando nessa ligação que absorvem qualquer irregularidade e vão de uma parte para outra. Ela é de consistência salina porque em sua composição há o sulfato de sódio, substância salina que estabiliza a oxirredução;

• Fio metálico externo: acoplado à placa metálica, também há o fio metálico na parte externa que acomoda os eletrodos. O fio também ajuda na transferência nas células eletroquímicas para serem transformadas em energia elétrica.

Oxirredução na prática

A reação da oxirredução pode ser notada quando o sulfato de cobre (CuSO4) entra em contato com uma placa de cobre em um recipiente. Em outro supositório, o sulfato de zinco (ZnSO4) entra em contato com uma placa de zinco. Ligados a uma ponte salina, um fio de cobre é posto com um voltímetro para que as placas nos dois recipientes também fiquem interligadas.

A partir desse experimento, a oxirredução ocorrerá com a placa de zinco (ânodo) se oxidando e perdendo elétrons. Esses elétrons então são lançados para a outra placa metálica, a de cobre (cátodo) através da ponte salina de forma equilibrada e de forma que a reação não seja interrompida.

Nessa situação, duas semirreações ocorrem para que a oxirredução seja reconhecida:

• Parte do ânodo: Zn(s) ↔ Zn2 (aq) 2 (indicando que a placa de zinco perdeu os elétrons);

• Parte do cátodo: Cu2 (aq) 2 ↔ Cu(s) (a placa de cobre recebeu os elétrons e fica em caráter positivo).

Para chegar à fórmula da oxirredução que ocorre nas pilhas ou células eletroquímicas, a soma das semirreações é necessária para que a reação global seja reconhecida. Nesse caso, o número de elétrons deve ser igual em ambas as partes para que a equação final não apresente elétrons em excesso. A reação global ficaria, de acordo com a situação, dessa maneira:

Zn(s) Cu2 (aq) ↔ Zn2 (aq) Cu(s) = Zn / Zn2 // Cu2 / Cu

O símbolo (/) indica que o eletrólito (ponte salina) agiu durante as semirreações e proporcionou um resultado exato e sem elétrons em quantidades diferentes em um dos lados.

Esse exemplo é o que ocorre em um dispositivo comum e isolado, mas outros exemplos podem ser vistos, mas em proporções diferentes. O caso de uma bateria pode ser igual, mas ele é composto por vários dispositivos com mais eletrodos e eletrólitos. Em virtude disso, cada unidade é capaz de ser recarregada porque o fluxo de energia elétrica é maior do que apenas em um dispositivo. Por isso, as semirreações seriam maiores assim como a reação global.

Surrealismo

Caracterizado por obras bizarras e bem diferentes de outros conceitos já abordados, o Surrealismo foi uma vertente artística que surgiu em Paris na década de 1920. O grande foco do movimento artístico era explorar o irracional, adotando conceitos que causavam forte impacto no público e gerar uma combinação do abstrato com o inconsciente de forma que impressionasse quem o contemplava.

Surrealismo

O movimento do Surrealismo foi exercido tanto na parte artística como na literária com participações de artistas e poetas consagrados como Antonin Artaud, Salvador Dalí, Max Ernst e o principal representante e idealizador do movimento, André Breton. Esse último era um forte crítico e defensor da vertente porque acreditava que as influências das teorias psicanalíticas de Sigmund Freud auxiliavam artistas a explorarem o imaginário de forma mais forte e torná-lo mais palpável através de textos, pinturas e também do cinema.

O início e as fundamentações do movimento/h2>

O movimento surrealista surgiu na década de 20, mas só foi atingir seu auge quatro anos após suas primeiras manifestações com a apresentação do Manifesto Surrealista feito por André Breton. Antes disso, artistas, poetas e outros autores praticaram trabalhos que serviriam de inspiração para projetos ainda mais desenvolvidos e ambientados dentro do movimento.

A estética dessa vertente, além de Freud, era seguida fortemente pelo pensamento de Pierre Reverdy. Segundo ele, uma imagem surge através de duas realidades que se encontram e criam uma nova forma e não na base de comparações. Essas realidades, por estarem distantes e não terem um contato contínuo, possibilitam a descontextualização sobre a forma de ver o mundo e torna possível novos olhares de maneiras inusitadas e impressionantes.

A partir desse pensamento, se tem três características básicas para que o Surrealismo pudesse atingir proporções consideráveis:

• O estilo é a combinação do representativo, ou seja, o irreal é representado de maneira livre e sem preconceitos. A combinação entre sonho e realidade é permitida, mas deve incentivar a construção de um diálogo com outras maneiras de ver o mundo;

• Não se devem guiar as manifestações surrealistas pela base da razão. O imaginário não possui regras, não possui limitações e nem é obrigatório ser algo lógico;

• Recursos podem ser utilizados para que as representações surrealistas sejam compreendidas. O humor, a reflexão (excluindo a razão) e a alucinação são as ferramentas mais usadas pelos surrealistas. Em contrapartida, qualquer princípio ou regência relacionado à família, honra, dever, proteção ou religião não é aproveitado por serem fatores que limitam a capacidade criativa.

Um detalhe interessante a ser abordado é que essa manifestação nem sempre precisa se concentrar numa fonte consciente. Isso quer dizer que obras podem fazer sentido ou não, se for o caso. Entretanto, se a arte consegue se comunicar com o público de forma a criar reflexões acerca do que é a realidade absoluta, a libertação do homem e o papel do inconsciente para a capacidade de criar novas obras, então é algo a ser aproveitado dentro da vertente.

Essa rigidez contra os padrões foi sentida com mais nitidez na arte, com técnicas de onirismo e de escrita automática. Essas e muitas outras obras e peças como o cubismo, a peça As Mamas de Tirésias e a obra O Castelo dos Pirineus foram outros exemplos da manifestação artística.

Formas de manifestação e relação com o dadaísmo

O dadaísmo foi um conceito bastante influente para o surgimento do Surrealismo. A necessidade de se definir o modernismo após eventos que abalaram o planeta, como é o caso da Segunda Guerra Mundial, atiçou muitos artistas, escritores e cineastas a adotarem esse conceito em seus trabalhos para que a sociedade se livrasse do fascismo e conquistasse independência, inclusive à arte.

O cubismo e o expressionismo foram grandes exemplos nessa contextualização. A escrita automática, a colagem e outras metodologias foram muito praticadas, especialmente por Salvador Dalí, que foi inspirado a pintar uma de suas mais famosas obras, A Persistência da Memória.

A amplitude da manifestação chegou aos ares políticos, com a criação do grupo Os Surrealistas. Encabeçados por André Breton, o grupo surgiu em 1947 com o intuito de quebrar paradigmas quanto ao conservadorismo nas expressões artísticas. O grupo surgiu em Portugal e muitos artistas se tornaram adeptos do grupo que chegou a ter somente uma exposição em 1949. Quadros foram pintados e expostos em Portugal como protesto contra o regime político do país que instaurava a censura artística na época.

No entanto, a exposição foi barrada, mesmo com a tentativa de realizar mais duas amostras. O movimento surrealista então perdurou por mais 6 anos, com o fim do grupo e com a divulgação das últimas obras inspiradas pela manifestação. A obra de Vespeira e Fernando Azevedo, O Chiado, foi a última pintura associada ao movimento, mas que serviu de inspiração para outros artistas que viriam apresentar seus trabalhos após o fim da vertente. Outros artistas, como Salvador Dalí, passaram a fazer trabalhos individuais em conceitos próprios e isolados da ideia.

Sólidos platônicos

Dentro do mundo da matemática existe a geometria, responsável pelo estudo do espaço e das figuras que o ocupam. Para muitas pessoas, a matemática se resume a números, porém Platão já pensava diferente. Enquanto a escola Pitagórica levava como lema a ideia de “tudo são números”, a famosa Academia (escola fundada por Platão) já deixava um recado em sua porta: “Que ninguém que ignore a geometria entre”.

Sólidos platônicos

Não é a toa que um dos elementos da geometria são os sólidos platônicos. Esses são convexos, em que suas arestas dão forma a polígonos planos, regulares e congruentes. Esses sólidos possuem essa nomenclatura graças a Platão, responsável pela sua descoberta (400 a.C.).

Vale destacar que existem apenas cinco sólidos que conseguem reunir essas condições (todas as faces como polígonos regulares):
• Tetraedro: poliedro regular que possui quatro faces (triângulos equiláteros), quatro vértices e seis arestas. Pode formar-se a partir da junção de quatro triângulos.
• Hexaedro (cubo): possui seis faces (quadrados), oito vértices e duas arestas. O cubo forma-se a partir de um molde que contenha seis quadrados.
• Octaedro: é um poliedro regular com oito faces (triângulos equiláteros), com seis vértices e 12 arestas. Pode ser formado através da junção de oito triângulos equiláteros.
• Dodecaedro: possui 12 faces (pentágonos), 20 vértices e 30 arestas. Esse poliedro regular pode ser formado a partir de 20 pentágonos.
• Icosaedro: poliedro regular que possui 20 faces (triângulos equiláteros), 12 vértices e 30 arestas. O icosaedro forma-se de um molde de 20 triângulos equiláteros.

Platão e os sólidos platônicos

Platão era um matemático que apreciava tanto os conhecimentos geométricos que afirmava com segurança e propriedade que a geometria tinha a posse da chave que desvendava todos os segredos presentes por trás do universo. Não é a toa que ele estabeleceu relações entre os poliedros e o Universo. Uma delas foi a associação do cubo, icosaedro, tetraedro e octaedro (respectivamente) com os elementos terra, água, fogo e ar. A maior dificuldade foi em relacionar o dodecaedro, que mais tarde ficou responsável pelo próprio Universo.

O entusiasmo do povo antigo com a geometria fez com que os sólidos platônicos tivessem grande peso e importância no universo. Acreditava-se que toda a matéria era formada através dos sólidos platônicos, assim como acreditamos que a matéria seja feita através das combinações de átomos.

Relação de Euler e os sólidos platônicos

Aqueles que seguiam a linha de Pitágoras tinham ciência da existência de apenas cinco sólidos regulares convexos, e também que cada um podia ser delineado de maneira rigorosa por uma esfera. Euclides descreveu esses sólidos no seu livro Elementos (parte XIII, proposição 13 à proposição 17), descrevendo o argumento de que apenas esses são os sólidos regulares. Já o matemático Euler montou uma demonstração desse resultado.

Segundo ele, o número de vértices, arestas e faces obedecem a seguinte relação: V−A F=2. Aqui V equivale ao número de vértices da figura, enquanto A faz menção ao número de arestas e F significa o número de faces. Dessa maneira temos a Relação de Euler. Vale destacar que a constante 2 irá depender sempre da forma do espaço topológico.

Fazendo uma ligação dos centros das faces adjacentes dos sólidos platônicos é possível obter outro sólido (porém de tamanho menor), que também será considerado sólido platônico. Esse sólido resultante, obtido a partir do inicial, podemos nomear como sólido dual.

Sólidos platônicos presentes na natureza

Como já dito anteriormente, a existência dos sólidos platônicos já era de conhecimento dos pitagóricos. Dessa maneira, os egípcios tiveram a brilhante ideia de utilizar de alguns elementos sólidos platônicos em sua arquitetura e também em outros objetos construídos por eles.

Estes sólidos também se fazem presentes na natureza (através de pedras preciosas, organismos vivos, etc.) e também na cultura humana (artes como pinturas, esculturas, arquitetura, etc.). Quando presentes na arquitetura, esses sólidos platônicos são encontrados graças a sua simetria e beleza, o que faz com que seja estimulado o interesse do ser humano, não somente hoje como através dos séculos. Muitas são as formas cristalinas naturais dos sólidos platônicos. Como exemplo, trazemos a calcopirita (tetraedro), galena (hexaedro) e da magnetita (octaedro).

Na área da saúde também é possível identificarmos exemplos de sólidos platônicos. Diversos vírus, como o da herpes, conseguem assumir a forma de um icosaedro regular. Isso é explicado por conta das estruturas virais serem formadas por diversas subunidades proteicas (iguais e similares), sendo o icosaedro a forma mais simples de originar essas subunidades. Faz-se uso de um poliedro regular por conta dele poder ser construído de uma unidade proteica básica, sendo repetido diversas vezes. Isso traz economia ao espaço no genoma viral.

Na meteorologia e climatologia é possível encontrar modelos numéricos globais do fluxo atmosférico que utilizam malhas com referências em um icosaedro (refinado por subdivisão). Esses têm se destacado diante dos modelos que fazem utilização das coordenadas de longitude e latitude.

Simbiose

Também conhecido como mutualismo, a simbiose é uma condição em que dois ou mais organismos possuem uma relação e todas as partes saem beneficiadas. Não há um critério para que ela aconteça, podendo acontecer com espécies iguais ou diferentes. Essa relação costuma ocorrer em tempo prolongado justamente porque o foco do mutualismo é garantir a sobrevivência das duas espécies (benefício principal adquirido da relação).

Simbiose

Cada espécie, podendo ser duas ou mais, trabalha de forma que cada uma obedeça a dois critérios: primeiramente que cumpra com suas especialidades e também que suas ações beneficiem o(s) outro(s) organismo(s). Mas essa garantia de sobrevivência nem sempre ocorre, o que não diferencia de ser caracterizado como simbiose. Por isso, existem dois tipos principais de relação:

• Relação forçada: é quando um ou mais organismos dependem de outro ser vivo para sobreviver, mesmo que sejam de espécies diferentes;

• Relação facultativa: esse tipo de relação ocorre quando as duas ou mais espécies conseguem sobreviver sem a necessidade de manter essa ligação em período prolongado. Entretanto, a ligação pode ocorrer caso seja oportuno e pode ser feita não somente com um parceiro, mas com outros diferentes. A prioridade de ambas as partes saírem beneficiadas também é válida nessa classificação.

Relação entre simbiose e a Teoria do Hologenoma

Uma das características de ligações mutualísticas é a geração de novos órgãos a partir de espécies específicas juntamente com seus hospedeiros. As futuras gerações advindas dessa ligação geram descendentes mais adaptáveis de um tipo para outro devido ao isolamento reprodutivo. Esse aspecto é observado em animais e plantas, mas são casos que não deixam de ser comuns.

Dentro desse conhecimento entra o conceito da Teoria do Hologenoma. Essa teoria se concentra em avaliar o comportamento de um organismo – aquele que procura o outro para sobreviver – com o microbiota. A partir dessa interação, percebe-se que, dentro dessa relação se constrói uma unidade de seleção evolutiva, a partir da junção das informações genéticas do hospedeiro e de sua microbiota.

Esse conjunto pode gerar descendentes ainda mais variados e mais adaptáveis a condições que seus geradores não seriam capazes de suportar. Esse resultado pode surgir de arranjos genéticos comuns, feitos por outros seres vivos que não praticam o mutualismo, como as reproduções sexuadas e as recombinações genéticas. A diferença é que a variedade genética é bem mais diversa se a simbiose ocorre com espécies diferentes. Se os dois organismos forem semelhantes, ainda assim, é possível ver a variação, mas de forma limitada, pois os genomas também são semelhantes.

Nesses casos, a simbiose pode originar outros três arranjos genéticos em que o resultado também é proporcional a outras relações como a sexuada, por exemplo:

• Microbiana aumentada: nesse tipo de arranjo as proporções de microrganismos geralmente aumentam quando ocorre a relação com seu hospedeiro, porque a condição que esses seres se encontram é diferente do comum. Por isso a ampliação do genoma desses microrganismos afeta profundamente a capacidade reprodutiva do hospedeiro;

• Transferência de genes: nesse caso as bactérias são o caso mais comum. Essa situação acontece quando ocorre troca genética entre o hospedeiro e sua microbiota em formato horizontal;

• Novos simbiontes na relação: é a relação com microrganismos ou microbiotas que já praticaram trocas com outros animais e plantas, garantindo uma variedade ainda maior de genes que podem ser transmitidos ao hospedeiro.

Exemplos de mutualismo

Existem diversos tipos de mutualismo que ocorrem na natureza. Tanto no grupo animal quanto no vegetal, e a prática tem como foco primordial a sobrevivência. Desde os pequenos seres vivos até os de maior porte, muitos deles praticam a atividade garantindo vantagens para os dois lados.

• Ruminantes x microrganismos: ruminantes são herbívoros e por consumirem uma quantidade grande de vegetais, o seu sistema digestivo precisa arcar com o volume grande de plantas e outras fontes consumidas por esses animais. O que ocorre é que microrganismos que vivem no aparelho digestivo dos animais ajudam a processar a celulose ingerida e assim garantem um melhor fluxo digestivo;

• Peixe-palhaço x anêmona: é um dos casos mais comuns de mutualismo. O peixe habita no vegetal à procura de proteção contra predadores, especialmente de tubarões. Com a sobrevivência do animal em seu espaço, a anêmona fica limpa e preservada, principalmente os seus tentáculos;

• Líquens x algas: embora vivam próximas a ambientes aquáticos, algumas algas sofrem com o perigo de desidratação, pois a água pode levá-las a espaços em que a luz solar é forte demais a ponto de não deixá-las úmidas. Nesse caso, os fungos acabam vivendo nas estruturas das algas, garantindo a preservação de água em sua composição. Outro detalhe é que esse fungo também se alimenta dos carboidratos que se acumulam na parede celular do vegetal, o que não deixa a alga desidratada mais rapidamente ou que não consiga realizar metabolizar outras substâncias importantes para sua sobrevivência.