Artes

Biografias

Biologia

Cinema e Séries

Educação Física

Espanhol

Filosofia

Física

Geografia

Geografia do Brasil

Gramática

História

História do Brasil

Inglês

Literatura

Matemática

Português

Quí­mica

Redação

Sociologia

Guerra do Peloponeso

A Guerra do Peloponeso foi um dos conflitos armados mais conhecidos da história, que ocorreu entre Esparta e Atenas. A seguir, aprenda como tudo aconteceu.

Guerra do Peloponeso

O momento histórico e os motivos para a guerra

A Guerra do Peloponeso é fruto de um período de tensão entre as duas civilizações. Atenas era na época a principal cidade da Grécia; por isso, tinha muito poder entre as que dominavam o comércio e a navegação e era líder de um grupo chamado Liga de Delos.

Por outro lado, Esparta também exercia grande influência na Grécia naquele tempo, sendo a líder de outro grupo, chamado Liga do Peloponeso. Isso sem falar que Esparta possuía o melhor exército de toda a região, considerado imbatível.

As ligas de Delos e do Peloponeso tiveram diferentes líderes com o passar dos anos, mas os mais importantes foram:

* Delos: Aquídamo II, Brásidas e Lisandro
* Peloponeso: Demóstenes, Alcibíades, Nícias, Péricles e Nícias

A rixa que existia entre as cidades também era incitada por outras cidades, e há muito havia uma grande pressão para que Esparta declarasse guerra contra Atenas. Foi então que Tebas, outra cidade importante e aliada de Esparta ataca a cidade de Platéia, que por sua vez era aliada de Atenas.

Mas apesar de tudo isso, o principal problema entre as poderosas cidades era político. Atenas exercia uma grande influência e seu modo democrático de governo chamava a atenção de outros povos da região que também queriam a mesma riqueza e grandeza dela. Isso tudo acabava irritando a forma de governar de Esparta, que se baseava nos modelos tradicionais de oligarquia.

Dentro deste contexto é que se dá início à famosa Guerra do Peloponeso que duraria vinte e sete anos, entre 431 e 404 antes de Cristo.

No início do conflito, as batalhas eram pequenas e as vitórias aconteciam do lado ateniense, tanto em terra quanto no mar. Até que parte da frota marítima da cidade foi enviada ao Egito a fim de apoiar uma cidade aliada, o que fez com que Atenas solicitasse uma trégua para Esparta, que durou 5 anos.

A Guerra do Peloponeso se reacendeu mais tarde, durante as chamadas Guerras Sacras; porém, desta vez, quem estava se dando melhor nos conflitos era Esparta. Durante todo o tempo que durou a Guerra, diversos soldados de ambos os lados faleceram, além de líderes importantes.

Tanto Atenas quanto Esparta investiram muito dinheiro e recursos durante todos os anos da Guerra o que fez com que, com o passar do tempo, fossem ficando mais fracas e empobrecidas. Ao final de tudo, quando foi declarada a Paz dos Trinta Anos e Esparta saiu como a grande vitoriosa, Atenas foi obrigada a abrir mão de territórios conquistados em terra, mas pode manter as conquistas marítimas. Ao mesmo tempo, tanto Atenas quanto Esparta se comprometem a não atacar uns aos outros nem tampouco outras cidades aliadas.

Por ter sido a cidade Espartana a vencer o conflito, o nome da Guerra ficou conhecido como Guerra do Peloponeso.

Consequências da Guerra e sua importância histórica

A vitória de Esparta na Guerra do Peloponeso fez com que uma possível unificação política de toda a Grécia se tornasse totalmente impossível. Além disso, como ocorre em todas as guerras, são os vencedores que passam a dominar e deixar suas marcas para o futuro.

Como Esparta era uma civilização focada nas oligarquias e totalmente militarizada, diversos desgastes passaram a assolar a Grécia, inclusive outras cidades. Assim, cidades que também possuíam uma grande influência política e econômica nas redondezas também passaram a enfrentar a ruína.

Isso, aliado ao fato de toda a região ter ficado muito empobrecida devido aos grandes investimentos feitos durante os quase 30 anos de conflito, facilitou que o então Rei da Macedônia, Filipe II organizasse um grande exército e conseguisse, com vitória tomar os territórios gregos.

A guerra do Peloponeso tem uma grande importância história e por isso é sempre um dos assuntos mais estudados na escola e cobrados em provas país afora. Isso se dá devido à própria influência que a Grécia apresentava nesta época para todo o mundo e o quanto estas cidades se diferenciavam entre si.

Além do mais, antes deste conflito, já haviam diversas batalhas internas e externas à Grécia, mas elas costumavam durar pouco tempo e envolver menos recursos e pessoas. De forma geral, podemos resumir que o que fica de mais marcante é:

* Um número nunca antes visto de soldados envolvidos

* O maior investimento da época em uma única Guerra

É importante salientar também que ficou como lição desta guerra a importância que o planejamento estratégico, treinamento e até de logística são essenciais para finalizar qualquer conflito de forma vencedora. Afinal, antes da Guerra do Peloponeso as nações acabavam partindo para batalhas de forma mais rápida, impulsiva e sem muita preparação prévia.

Talvez o mundo fosse bem diferente se Atenas tivesse saído vencedora da guerra do Peloponeso, já que possuía, já naquela época, pensamentos e formas de governo de vanguarda, além de uma economia e estrutura política muito mais avançada do que sua concorrente, Esparta.

A Santa Inquisição

O episódio histórico conhecido como “Santa Inquisição” teve início oficial no século XIII, provavelmente no ano de 1229. Na ocasião, o Papa Gregório IX, no Concílio de Toulouse, proclamou oficialmente a instituição do Tribunal do Santo Ofício, também conhecido como Inquisição.

A Santa Inquisição

O flagelo da Santa Inquisição é um fenômeno típico da Idade Média, mas repercutiu para além daquele período histórico, se fazendo presente em países como Portugal até o limiar do século XVIII.

Ainda no aspecto formal, o Papa Inocêncio IV, em 1252, publicou o Ad Extirpanda, um documento que continha o plano para dar curso à eliminação de hereges. Eram considerados hereges todos aqueles que se opunham aos postulados da Igreja Católica.

Em 1320, após muitas revisões, sob o pontificado de João XXII, a Igreja declarou que a bruxaria e os rituais e religiões constituíam uma ameaça hostil ao cristianismo.

Os inquisidores eram homens de no mínimo 40 anos de idade, doutores em Teologia, Direito Canônico e Direito Civil. O sistema era instrumentalizado por informantes, que eram regiamente remunerados e ainda ficavam com parte dos bens e propriedades do condenado.

A forma como se deu a Santa Inquisição é um excelente manual para entender como se estruturam os regimes autoritários até os dias atuais. As massas de camponeses eram instadas a aceitar e colaborar com a Igreja Católica em troca de promessas de ascensão ao reino dos céus, mas a recompensa podia também ser financeira em caso de cooperação com os inquisidores, de modo que a chamada “caça às bruxas” se tornou um grande negócio e era disso que se tratava.

Poder e Riqueza

Embora o poder da Igreja Católica seja originário dos últimos imperadores romanos, a queda do Império, no século V, só fez aumentar a influência da mesma. Os séculos VI a VIII foram marcados pela expansão dessa influência, com o estabelecimento dos Estados Papais na Península Itálica.

Com a erosão dos poderes políticos na Europa Medieval, a Igreja Católica ganhou espaço e poder, alicerçado na disseminação dos dogmas, verdades que deveriam ser aceitas sem questionamento como desígnios divinos, representados pela Igreja Católica, sendo o Papa seu máximo executor.

Manter e expandir esse poder e riqueza nunca foi uma tarefa fácil, razão pela qual era preciso estabelecer um pensamento único, que sustentasse as condições para tais intentos. A estratégia da Igreja Católica foi dominar pela criação de um modelo de pensamento e comportamento controlado, pela instituição do medo e pela eliminação de qualquer tipo de oposição ao dogmatismo católico.

A estratégia conseguiu êxito, pois até o século XVIII a Igreja Católica era dona de grande parte das terras europeias, sendo detentora de grande poder político.

Séculos de Horror

A ignorância e o misticismo são parte da conjuntura que levou a Idade Média a ficar conhecida como Idade das Pedras. A Santa Inquisição aterrorizou populações e alimentou toda sorte de traições, intrigas, vinganças e injustiça. Milhares de pessoas morreram queimadas em fogueiras, foram presas e torturadas pelos inquisidores.

Às vítimas não era permitido conhecer seus acusadores, sendo que muitas vezes sequer sabiam do que estavam sendo acusadas. Bastava que representassem algum risco à perpetuação da conjuntura imposta pela igreja. Poderes políticos se aproveitavam para eliminar inimigos, criando um clima que nos dias atuais chamamos de insegurança jurídica, típico dos regimes de exceção.

O réu não tinha direito à defesa. Suas alternativas eram se retratar, renunciar às suas crenças e à sua fé, aceitando, por fim, a autoridade da Igreja Católica, o que era obtido mediante supressão sumária da liberdade e sob tortura. Os acusados eram obrigados a confessar suas heresias, enquanto há relatos de que as mulheres eram comumente vítimas de estupro.

As execuções eram públicas. O objetivo era atemorizar a plateia. O espetáculo oferecido às multidões tinha enforcamento, decapitação e, na maioria das vezes, as vítimas morriam queimadas.

O Malleus Maleficarum (Martelo das Bruxas), publicado em 1486, serviu como manual de investigação e condenação das bruxas. Segundo a tese defendida por aquele documento, as mulheres eram as mais propensas à feitiçaria, razão pela qual eram as mais perseguidas.

A carnificina chegou até ao território americano. Há notícias de que 139 pessoas foram queimadas vivas entre 1721 e 1777 no território brasileiro, então colônia de Portugal, outro país em que a Santa Inquisição viveu seu apogeu no século XVIII.

Nunca se viu um festival de sadismo e carnificina tão terrível e prolongado quanto o episódio que ficou conhecido como “Santa Inquisição”. Um exemplo é a conhecida e sangrenta, “Noite de São Bartolomeu”, quando com o consentimento do Papa Gregório XII, quase 70 mil pessoas foram massacradas na França.

O saldo desse empreendimento por poder e riqueza, segundo historiadores, é de quase dez milhões de pessoas executadas friamente, com requintes de crueldade. Na França, Escócia e Alemanha, com o intuito de prolongar o sofrimento dos condenados à fogueira, eram usadas madeiras verdes.

Em junho de 2004, séculos após o período de terror, sob João Paulo II, o Vaticano publicou mais de 800 páginas sobre o período da Inquisição, identificado como um escândalo de intolerância e violência. João Paulo II pediu perdão à humanidade, exortando os cristãos a não ter medo da verdade e manter o espírito aberto ao arrependimento.

Genealogia

Conhecer a própria história e sua origem é o foco da genealogia, ciência auxiliar da História que estuda a disseminação das famílias pelo mundo, sua evolução e conexão entre os sobrenomes. Conhecida como o estudo dos parentescos, a genealogia traça a história familiar do indivíduo e acaba englobando outras ciências tais como a sociologia, arte, economia e até o direito.

Genealogia

O levantamento é minucioso e estendido aos descendentes e ascendentes, mas há uma série de dificuldades encontradas no caminho, especialmente criadas pelas mudanças ortográficas e outros tipos de modificações nominais. É preciso buscar o máximo de detalhes para chegar à construção da árvore genealógica mais completa possível.

O que é e como é feita a genealogia

A pesquisa é feita utilizando todos os tipos de documentos possíveis, como certidões, registros civis que sejam de pais, tios, avós, avôs, bisavós e bisavôs, até mesmo o mais longe possível de descendência. A busca pode ser feita em cartórios, igrejas, arquivos públicos, biblioteca, museus e qualquer instituição pública que possa atestar a veracidade do documento encontrado.

A partir desse estudo é possível saber detalhes sobre o local de nascimento dos parentes próximos e distantes, assim como outros dados peculiares como posição social e por quais caminhos eles possam ter se direcionado. Tudo incluindo data e locais, permitindo uma exatidão na construção do que se chama de árvore genealógica ou heredograma.

A árvore genealógica é uma representação gráfica que vai criando as conexões familiares entre os indivíduos, facilitando a visualização dessas ligações. Pela forma como vai se desenvolvendo ao longo da pesquisa, ela se assemelha a uma árvore, numa sequência conhecida como Fibonacci.

Elas podem incluir nomes, datas de nascimento e morte, além de informações extras como casamentos e representação fotográfica. A mais conhecida é a que possui uma base com crescimento exponencial, mas também pode partir de seu topo, através de um antepassado comum e como se desenvolve sua descendência.

A genealogia não é utilizada apenas para quem tem curiosidade em conhecer sua família. É um dado histórico de fundamental importância para se compreender a formação da sociedade e da cultura de um povo, mas também pode ser essencial para a medicina. A árvore genealógica pode permitir ao cientista estudar a evolução de doenças genéticas.

Inclusive, é também possível identificar etnias e até regiões geográficas de origem a partir da análise do DNA do indivíduo. E mesmo que ele se considere branco, a maioria possui contribuições africanas e/ou indígenas de distantes antepassados.

A origem da genealogia brasileira

Ao viajar pelo mundo é possível perceber que a humanidade é hoje formada por uma grande variedade de raças, que vão se distribuindo entre inúmeras regiões. Uma das suas distinções é baseada pelos traços hereditários, nos quais uma nação se define pelas suas características físicas em comum.

Mesmo que nesses traços haja similaridades peculiares entre um grupo de pessoas, nenhuma raça pode ser considerada pura e sim formada por influência de outras ao longo da história, através da miscigenação.

Em quinze gerações, o Brasil acabou formando sua própria estrutura genética a partir do entrecruzamento de europeus, africanos e índios. Mas mesmo que a base sejam os portugueses, índios e negros africanos, outras etnias deixaram sua contribuição nessa rica mistura. É importante notar que entre os próprios grupos básicos há diferenças entre si, como o grupo de índios que podem ser tupi, caraíba, aruaque entre outros, inclusive com características bastante específicas.

Os povos africanos escravizados pertenciam a dois grupos: o de bandos e os sudaneses. Os sudaneses eram mais altos e com um nível cultural mais avançado, se distribuindo pela região da Bahia enquanto os bandos, mais fortes eram mais concentrados em regiões cafeeiras, de criação e açúcar de Minas Gerais e do restante do Nordeste.

Já os brancos por muitos séculos foram majoritariamente compostos por portugueses, mas a partir do incentivo da imigração, o país também foi povoado por alemães, italianos, eslavos, espanhóis, finlandeses, suíços, árabes e dos amarelos japoneses.

A totalidade da população brasileira tem 47,7% declarada branca, 43% se considera parda, 7% acreditam ser negros e apenas 3% são de índios. Mas entre as regiões esses números se alteram, como é o caso do Norte e Nordeste brasileiro, cuja maioria da sua população é composta de mestiços, negros e índios. Já no Sudeste, há uma vantagem numérica para a população branca, que se torna majoritária no Sul do país.

A grande imigração europeia ocorrida no final do século XIX e início do XX foi basicamente no Sul, especialmente Santa Catarina e Rio Grande do Sul, com alguns picos no Sudeste como São Paulo e Rio de Janeiro.

Enquanto isso os negros, índios e mestiços se estabeleceram na região Norte e Nordeste, através dos quilombolas, tribos indígenas resistentes e mestiços que buscavam se estabelecer entre fazendas de café, cacau e mineradoras.

Mas a cor da pele não é um indicativo eficaz da origem étnica do indivíduo. Milhões de brasileiros que se consideram brancos e até negros, possuem material genético de povos indígenas em seu DNA. Por haver tanta heterogenia, o grau de ancestralidade indígena varia entre cada pessoa e sua posição geográfica.

O indivíduo pode ter forte ancestralidade indígena em seu lado genealógico paterno, enquanto o materno possui o de brancos e negros. No Brasil, o principal padrão eram o do homem ameríndio que procriavam com mulheres de origem africana.

A análise dessa ancestralidade é feita pelo cromossomo Y e o DNA mitocondrial, que pode identificar os antepassados longínquos, inclusive definindo origem geográfica do materno e do paterno. A análise desses DNAs de brancos brasileiros indica que os que descendem de índios provêm da linhagem materna e minimamente paterna.

O brasileiro em geral possui contribuição das três principais etnias, em que um grupo é mais intenso de acordo com a região do Brasil onde são avaliados os indivíduos.

Formações litorâneas

O Brasil é um país conhecido por sua diversidade ambiental. Ocupando um território que possui dimensões continentais, o país possui a maior e mais biodiversa floresta tropical do mundo, a maior planície alagada do mundo (o pantanal), a floresta com mais espécie de plantas proporcionalmente a seu tamanho – que hoje, infelizmente, tem apenas uma pequena parte de seu território original preservado –, dentre diversos outros biomas.

Formações litorâneas

No entanto, os biomas de uma categoria bastante importante, mas que não é muito comentada é o assunto deste artigo: as formações litorâneas.

Deve ser levado em conta que, devido à sua extensão territorial, o Brasil possui 7.367 km de costa banhada pelo Oceano Pacífico, número que aumenta para 9.200 km se consideradas as saliências e reentrâncias presentes. Esse número faz com que existam pelo menos quatro tipos de vegetação: manguezal, vegetação de dunas, vegetação de praia e restinga. E são elas que serão abordadas com mais detalhes abaixo.

Restinga e mangue

Começando pela restinga, diretamente associada à mata atlântica, vale ressaltar que se trata de uma série de comunidades distintas de vegetais, em constante influência marinha e pluvial. A restinga é um tipo de área que se caracteriza por possuir grande diversidade ecológica, e os seres vivos dela possuem dependência maior do solo do que do clima. A vegetação dessa formação litorânea é composta por árvores, trepadeiras, samambaias, bromélias de chão, cactos e epífitas.

Em termos de distribuição geográfica, a restinga pode ser encontrada ao longo de toda a costa brasileira, pois como dito é associada à mata atlântica, presente em grande parte da costa brasileira.

O substrato dessa formação é composto majoritariamente por areia e conchas, sendo que as marés o umidificam com água salina e as chuvas com água doce. Já o vento é responsável por limitar a vegetação, levar umidade presente no ar e dispersar sementes.

Os diferentes tipos de vegetação encontrados na restinga se devem aos diferentes níveis de concentração salina no solo – esse vai diminuindo quanto mais se caminha do litoral em direção ao continente – e são compostas por folhas rígidas, galhos retorcidos e raízes longas com grande poder de fixação no solo.

Em termos de fauna, é possível encontrar diversos mamíferos e répteis, incluindo a onça parda, gato do mato, capivara, porco do mato, jacarés, lagartos e diversas espécies de serpentes.

Já a segunda formação litorânea encontrada no Brasil é o manguezal, típico de todas as costas de países tropicais e subtropicais e caracterizado com um ambiente de transição entre o mar e a terra, sujeito ao regime das marés. Ele possui enorme importância, pois serve como ambiente de alimentação, proteção, reprodução e berçário para uma grande diversidade de espécies. No Brasil, os manguezais se concentram no norte, em algumas partes do sudeste (foz de rios perenes protegidos das marés) e poucos locais da região sul (somente em locais protegidos das fortes ondas).

Para que haja o manguezal, é necessário que a geomorfologia seja facilitada pelas formas meândricas dos rios próximos à foz devido à deposição de sedimentos, uma vez que o solo dessas regiões é composto primordialmente por substrato de matéria orgânica.

Sua flora tem como principal característica a raiz radicular, que cresce poucos centímetros abaixo da superfície e desponta para cima, sendo responsável por efetuar as trocas gasosas. A reprodução dessas plantas ocorre por viviparidade, na qual as sementes permanecem nas árvores até que tenham reservas nutritivas suficientes para se alimentarem no período em que ficam flutuando na água, sendo que a germinação ocorre por meio da dispersão de propágulos.

A fauna dos manguezais é composta por caranguejos, seus seres residentes, peixes, camarões e uma infinidade de aves, mamíferos e répteis.

Vegetação de praia e dunas

Os dois últimos tipos de formações litorâneas existentes na costa brasileira são compostos pela vegetação de praia e dunas. Trata-se de áreas que sofrem influência de inúmeros fatores ambientais, incluindo chuvas, ventos, maré e ondas, o que faz com que as regiões sejam bastante dinâmicas.

Assim como na restinga, o substrato é formado por areia e conchas, o que limita a ocorrência de diversos tipos de plantas e grupos de animais. Por isso, são formações litorâneas consideradas de baixa diversidade.

A vegetação varia de acordo com a região, sendo composta por fungos e algas próximas ao mar, plantas com rizoma, alguns poucos arbustos e epífitas presentes no extrato arbustivo, incluindo bromélias, musgos, orquídeas, e líquens.

Ainda assim, são regiões importantes, pois apesar de sua população permanente ser composta por invertebrados, servem como área de descanso para aves migratórias, falcões e mamíferos e área de desova para tartarugas.

Assim, independente do tamanho da região que ocupam e da quantidade de plantas e animais que abrigam temporária ou permanentemente, as formações litorâneas são biomas extremamente importantes, mas que devido à atividade do homem, se encontram bastante devastados, uma vez que as regiões litorâneas são as que possuem maior concentração de pessoas.

Os imigrantes na Europa

A partir do fim da II Guerra Mundial, muitas nações europeias direcionaram esforços para se reconstruírem e, por conseguinte, chegaram em posições de destaque no ramo industrial. Nesse cenário, é possível citar a França e a Alemanha como casos países que se recuperaram bem após o término do conflito. Devido às oportunidades geradas pelo crescimento econômico, tais áreas passaram a atrair um grande número de trabalhadores, em especial, imigrantes.

Os imigrantes na Europa

Os diferentes grupos de imigrantes na Europa

Na fase inicial, a maioria das pessoas era oriunda de outras regiões do próprio continente europeu, como Portugal, Grécia, Espanha e Itália. Esses imigrantes dirigiam-se aos centros industriais mais desenvolvidos em busca de uma inserção no mercado de trabalho. A princípio, as vagas abertas nas fábricas estavam destinadas a funcionários com pouca qualificação, que por isso ganhavam salários reduzidos. Com frequência, não era estabelecido nenhum vínculo empregatício, uma vez que as atividades tinham caráter sazonal. Não havia, portanto, garantias trabalhistas para esses indivíduos.

Mais adiante, observou-se uma mudança na origem dos imigrantes na Europa. Sobretudo durante as décadas 1970 e 1980, a parcela mais significativa era originária das ex-colônias.

Inclusive os países menos desenvolvidos, como, por exemplo, do leste europeu, passaram a assimilar os imigrantes. O processo descrito foi motivado, entre outras razões, pela crescente desigualdades socioeconômicas entre as nações centrais e as periféricas. Dado o contexto, locais que sempre tiveram sua população partindo para outros pontos do mundo, passaram a absorver imigrantes de antigas colônias, como da América Latina e do já mencionado leste da Europa.

Atualmente, nota-se um forte movimento que se opõe à entrada e permanecia de emigrantes, em particular nos países de grande atração. Ainda que não sejam proeminentes, em Portugal há grupos xenófobos. Mesmo assim, as condições que levam à imigração persistem e o intenso fluxo de estrangeiros continua. Um dos principais problemas causados por essa realidade é a saturação do mercado de trabalho, que tem como reflexo ações radicais e até mesmo violentas contra os imigrantes. Na França, ocorreram uma série de episódios de ataques a pessoas de nacionalidades distintas que ilustram bem essa aversão.

Quem aderiu à perspectiva xenófoba costuma culpar os imigrantes pelas taxas de desemprego e precarização dos serviços, ignorando que o fator foi provocado por suas próprias lideranças. Isso porque a chegada dos funcionários de fora visava a realização de tarefa que os nativos não queriam fazer. O fenômeno tão debatido hoje é reflexo das medidas imperialistas do passado. Durante séculos as metrópoles tinham como único intuito explorar ao máximo os recursos das colônias, sem nunca considerar alternativas para que elas se desenvolvessem e se tornam mais autônomas.

Aqui, cabe destacar que os grupos xenófobos tiveram uma ascensão gradual, especialmente a partir da década de 80. Eles são um resultado direto da instabilidade econômica que marcou esse período, bem como do subsequente desemprego em escala internacional. De acordo com os representantes e adeptos dessa mentalidade, a rejeição aos imigrantes não é decorrente de um preconceito quanto às origens, e sim pela perda da identidade cultural do país. Outro argumento seria a injusta competição entre os nativos e os estrangeiros, tendo em vista que os últimos se submetem a pagamento inferior e a piores condições de trabalho. Tem-se então uma deflação que atinge a todos. Em adição, a chegada da religião muçulmana na Europa é tida como um risco pelos anti-imigração, particularmente depois dos atentados de 11 de setembro nos Estados Unidos.

Entende-se então que:

• O movimento de migração acentuou-se após a 2ª Guerra Mundial;
• Os imigrantes na Europa vieram sobretudo dos países periféricos;
• Mesmo países menos desenvolvidos do continente europeu passaram a receber estrangeiros;

Os movimentos anti-imigração

Por causa da pressão de coletivos xenofóbicos, o governo da França decidiu implementar ações que restringem a chegada de imigrantes. Nessa conjuntura, os africanos e muçulmanos, originários de ex-colônias francesas, são os mais prejudicados. No entanto, essa prática não é exclusiva da França, e outras nações mais desenvolvidas na Europa implementaram regras extremamente rigorosas para coibir a vinda de imigrantes.

Recentemente, os imigrantes que têm maiores dificuldades e sofrem mais descriminação são os provenientes do Leste Europeu. A rejeição fica clara pela imposição de vistos pelos países da chamada Europa Ocidental para esses estrangeiros. Como a burocracia é muito grande, conseguir o documento torna-se um objetivo inalcançável para a maioria.

Essa espécie de descriminação por uma parcela dos europeus, majoritariamente em nações mais desenvolvidas, tem propiciado a proliferação de grupos classificados como “neonazista”. Quem segue tal ideologia chega a atuar de maneira bastante extrema, inclusive cometendo atentados contra os imigrantes.

• Os imigrantes na Europa aceitam piores condições de trabalho e salários menores;
• Grupos xenófobos culpam os imigrantes pelas taxas de desemprego e temem a perda de uma identidade nacional.

Em suma, é possível afirmar que a situação dos imigrantes na Europa é muito complexa e a busca por uma resolução é árdua. Para os estudiosos no assunto, a crise da imigração deve-se ao longo tempo de exploração das colônias pelas metrópoles. Ou seja, é como se os indivíduos dessas regiões menos desenvolvidas estivessem cobrando a conta por tal período. Segundo vários especialistas, o tópico não terá uma conclusão enquanto existir tanta desigualdade entre as nações periféricas e centrais, pois as pessoas em desvantagem socioeconômica vão sempre tentar migrar para garantir a sua sobrevivência.

Biorremediação – Biotecnologia Ambiental

O planeta Terra a cada dia dá sinais que simplesmente não suporta mais prover e decompor todos os resíduos produzidos pela atividade humana. Hoje, mesmo que se fale muito em sustentabilidade e responsabilidade socioambiental, o que se observa na prática é que, mesmo diante de todas as leis, obrigações e acordos estabelecidos nas mais diferentes partes do mundo, ainda existem problemas ambientais bastante graves.

Biorremediação - Biotecnologia Ambiental

Na contemporaneidade, uma dos maiores exemplos é o lixo eletrônico. Para que os aparelhos que utilizamos diariamente possam ser produzidos, é necessário uma grande quantidade de plástico e metais. O problema é que o plástico demora muito tempo para se decompor e muitos dos metais são altamente poluentes de solos e águas, gerando uma enorme preocupação em governo e especialistas.

Felizmente, diversas iniciativas vêm sendo tomadas para diminuir a velocidade de degradação do planeta, o que é bastante positivo tanto pela perspectiva ambiental quanto pela perspectiva social. Uma das mais importantes é a biorremediação, que será vista com mais detalhes neste artigo.

O conceito de biorremediação

Existem diversas dúvidas a respeito desse assunto, pois se trata de uma prática sustentável relativamente nova e ainda pouco presente no vocabulário comum. De maneira resumida, pode-se afirmar que o conceito em questão, também chamado de remediação biológica, corresponde a uma técnica utilizada para reduzir o impacto da poluição gerada pela atividade humana por meio de agentes biológicos degradadores, capazes de descontaminar áreas que apresentam poluição. Em outras palavras, o conceito em questão consiste em uma técnica bioquímica que utiliza organismos vivos para acabar ou reduzir a poluição presente em determinado ambiente.

Os organismos utilizados geralmente são micro-organismo, que podem estar tanto presentes quanto serem introduzidos na área a ser recuperada, a exemplo de leveduras, bactérias, fungos e enzimas que decompõem tanto poluentes orgânicos, como a gordura, quanto poluentes inorgânicos, como o plástico. Assim, trata-se de um processo totalmente natural e seguro.

Para que a técnica seja implementada com o máximo de eficácia, é necessário que algumas questões sejam resolvidas de antemão. A primeira delas é determinar que tipo de ambiente degradado será recuperado, se solo, água ou sedimento. Na sequência, é preciso precisar o tipo de poluição predominante. Também é necessário fazer uma série de análises, como geofísicas, hidrológicas e geológicas para, por fim, determinar que tipo de biorremediação será utilizada, pois existem duas principais modalidades:

-In-situ: como o próprio nome indica, nesta modalidade o tratamento é realizado no próprio local contaminado, sem necessidade do transporte de material, podendo ser feita por meio de atenuação natural, bioaumentação, bioestimulação, fitorremediação ou landfarming;
-Ex-situ: aqui ocorre o contrário da in-situ, ou seja, o material do local contaminado deve ser transportado para outro local para que seja aplicada a técnica, devido principalmente a questões de equilíbrio ecológico, uma vez que muitos dos microrganismos utilizados não fazem parte do local tratado. Ela pode ser feita tanto por meio da compostagem quanto por meio do uso de reatores.

Todos os processos apontados acima pertencem a uma das três categorias em que a técnica se divide, que são definidas pelo tipo de organismo utilizado. A primeira delas é a enzimática, que como o próprio nome indica é baseada em plantas. A segunda é a fitorremediação, baseada no uso de plantas. Por fim, a terceira corresponde à bacteriana.

Vantagens

Como é possível perceber com o que foi exposto acima, essa técnica permite que diversas vantagens sejam colhidas. A primeira delas é que todas as substâncias poluentes são eliminadas definitivamente, pois ao contrário do que ocorre quando o plástico é retirado do mar, por exemplo, ainda será necessário dar um fim a tal plástico. Além disso, como não são utilizados produtos químicos, não existe risco de intoxicação.

Vale frisar também que até mesmo resíduos extremamente difíceis de serem decompostos, como os produzidos pelas indústrias, podem ser eliminados. O baixo custo também se destaca, e justamente por isso a técnica pode ser aplicada em diversos segmentos.

Em municípios, pode ser utilizada para reduzir o mau cheiro de estações de tratamento de esgoto. Em indústria, é capaz de eliminar mesmos os resíduos poluentes mais resistentes. Na agricultura, pode ser utilizada para acelerar a decomposição de resíduos orgânicos, como plantas e excrementos de animais. Em residências, possui ampla aplicação em fossas sépticas e caixas de gordura, evitando o mau cheiro e entupimentos, dentre diversas outras aplicações.

Isso indica que ao contrário de diversas técnicas existentes, a remediação ecológica pode ser utilizada mesmo em pequena escala, como residências, com a mesma eficácia do que em indústrias, provando que além de eficaz também é democrática.

Vale ressaltar que existem desvantagens na biorremediação, especialmente quando comparada a outras técnicas, pois trata-se de um processo que leva tempo para descontaminar e pode causar desequilíbrio ecológico quando realizado sem conhecido e estudos adequados. No entanto, seu potencial de aplicação e suas vantagens certamente compensam esses pontos negativos.

Geografia Rural

Embora muitos confundam a Geografia Rural com o estudo da variável agrícola, essa disciplina transcende o universo da produção de matéria prima agrícola.

Geografia Rural

Os objetos mais fortemente abordados pela Geografia Rural são o ser humano e a relação entre a economia rural e a global. Mais recentemente, ganhou relevância significativa o estudo do impacto da atividade rural sobre o meio ambiente.

Ao contrário do que possa parecer, a economia rural não está fundamentada exclusivamente na agropecuária, particularmente agricultura. É uma visão que está bastante alinhada com o desenvolvimento histórico da economia brasileira.

A geografia rural é fortemente impactada pelo modelo de distribuição de renda. O Brasil rural do período colonial ao final do século XIX possui uma configuração que não favorece o surgimento de um mercado consumidor minimamente expressivo.

Enquanto no Norte, Nordeste e Centro-Oeste predominava uma economia de subsistência – de produção para o próprio consumo, sem acesso a técnicas mais sofisticadas –, a agricultura comercial se estruturava em torno da mão de obra escrava.

A ausência de renda na atividade agropecuária é um inibidor do surgimento de uma atividade econômica local mais diversa. Porém, ainda que lentamente, esse quadro vai se transformando ao longo do século XXI, a começar pela diversificação da produção, das pequenas propriedades e da qualificação nos processos decorrente da imigração europeia, sobretudo para o Sul e Sudeste do país.

De acordo com a Pesquisa Nacional por Amostra de Domicílios (Pnad), no ano de 1990 a cada dez pessoas ocupadas, três estavam ligadas a atividades desvinculadas da agricultura. Em 1980, essa proporção era de dez por duas.

Geografia Rural e desenvolvimento econômico

Todos os estudos ligados à Geografia Rural convergem para o mesmo caminho. A melhor distribuição da renda no campo é o caminho certeiro para o desenvolvimento da economia do campo e erradicação de indicadores de extrema pobreza e desocupação. A razão é muito simples. Aliada à desconcentração da propriedade, do ponto de vista da economia, significa aumento da produtividade no campo, geração de novas oportunidades de negócios ligados ao transporte e processamento da produção, além da formação de um atraente mercado consumidor local, aproximando a geografia urbana da rural, na medida em que em torno de uma atividade econômica forte é natural que surjam e se desenvolvam conglomerados urbanos. A diferença, em relação à atividade meramente extrativista, é que a atividade agropecuária estabelece uma relação perene com o meio.

A Geografia Rural, enquanto disciplina que estuda essas relações, buscando explicar as relações sociais, as variáveis políticas e ambientais, se estabelece como importante ponto de apoio a políticas públicas.

Assim aconteceu no Brasil desde o início do século XXI, quando o governo se valeu dos estudos para estruturar suas políticas para o campo, com base nos problemas e oportunidades apresentados.

Por conta dessas políticas, foi constatado no ano de 2009 que 44,7% dos brasileiros residentes em zonas rurais se ocupavam de atividades não ligadas à agricultura. No estado de São Paulo, o mais desenvolvido, esse número chegou a 78,4%.

O caso de São Paulo, ilustra, de certa forma, a aproximação entre a cidade e o campo, inclusive quanto à ocupação econômica do morador das zonas rurais, que muitas vezes se desloca até as cidades vizinhas para trabalhar. Esse é, todavia, só um aspecto dessa mudança. Existe uma indústria do turismo voltada para as áreas rurais que gera renda e emprego, assim como a indústria ligada ao processamento do produto agropecuário, gerando um círculo virtuoso de povoamento, salário e consumo, sobretudo porque a industrialização é um fator de redução da desigualdade de renda. Esse é, aliás, um tema delicado, que opõe os grandes produtores às políticas de desenvolvimento humano e distribuição de renda, que visam incluir o empregado rural nas políticas de proteção ao trabalho e integrar famílias independentes no espectro da atividade econômica. Há uma resistência histórica desse setor, provável resquício de um país que estruturou seus alicerces se valendo de mão de obra escrava. Até os dias atuais, são corriqueiras as denúncias de propriedades rurais que exploram mão de obra escrava.

Outro aspecto econômico da geografia rural é a migração de famílias da cidade para o campo, alavancada pela criação de confortáveis condomínios e comunidades rurais. São, em geral, famílias de boa renda e consumidores com alto potencial, que tendem a gerar mais atividade econômica para atender a demanda local.

O fator ambiental

Há, historicamente, uma preocupação com o impacto da atividade agropecuária e extrativista sobre o meio ambiente.

Do ponto de vista da Geografia Rural, esse impacto precisa ser mensurado, mais uma vez no sentido de oferecer estatísticas e outros indicadores importante para a elaboração de políticas públicas ambientais.

Isso inclui a preservação do solo, do bioma local e das populações, nativas ou não de cada região. Numa abordagem mais atual, é preciso ampliar esse escopo. Percebe-se nas últimas décadas uma mudança no fluxo migratório, que já foi do campo para as cidades, mas hoje a população rural cresce e toda infraestrutura necessária para essa população com renda também tende a gerar impactos no meio ambiente, podendo afetar, inclusive, de forma dramática, a vida nos grandes centros urbanos.

Miguel de Cervantes

Miguel de Cervantes Saavedra foi um dos sete filhos de Rodrigo e Leonor de Cortinas, tendo sua data de nascimento reconhecida oficialmente no dia 29 de setembro de 1547, embora existam algumas controvérsias sobre o dia exato de seu nascimento. Da mesma forma, sua cidade natal é alvo de discussões, embora o mais provável é que tenha nascido em Alcalá de Henares, mesma cidade em que foi batizado.

Miguel de Cervantes

Com apenas 16 anos, Miguel mudou-se para a cidade de Sevilha com sua família – mudança esta que seria fundamental para seu futuro na literatura, pois foi em Sevilha que Miguel iniciou seus estudos em latim e gramática.

Já no ano de 1971, com 24 anos, Miguel serve ao exército do Rei espanhol Filipe II, participando da batalha naval de Lepanto. Durante o combate, Miguel é ferido no peito e na mão, incidente que faria com que perdesse completamente os movimentos de sua mão esquerda.

Pouco mais tarde, em 1575, quando retornava à Espanha após um período na Itália, Miguel é sequestrado por corsários, sendo levado para a Argélia, onde é mentido por quase cinco anos. Após ser resgatado por sua família, Miguel de Cervantes passa os quatro anos seguintes trabalhando como soldado, oportunidade na qual conhece Portugal, retornando à Espanha apenas em 1584.

Após seu retorno para seu país natal, Miguel de Cervantes passa a se dedicar mais intensamente à literatura, publicando seus primeiros trabalhos, além de ter contato com importantes literatos de sua época.

Ainda em 1584, Miguel se casa com Catarina de Palácios e Salazar, e passa a viver em Esquivias, um povoado de La Mancha, local de onde sua esposa era originária. Pouco depois, foi encarregado pelo rei de coletar impostos, trabalho que o levaria a ser preso futuramente por atrasos em depósitos e pagamentos à coroa.

Vida literária de Miguel de Cervantes

Em 1585, Miguel de Cervantes edita sua primeira novela, La Galatea, o livro que faz com que o escritor passe a ser conhecido por um público bastante sofisticado na época. O conhecimento de sua obra passa a ser ainda maior com a ajuda de seu círculo de amigos, o qual incluía pessoas como Luiz Gálvez de Montalvo.

Em seguida, aproveitando seu contato próximo com alguns importantes literatos da época, Miguel de Cervantes escreve outros dois poemas dramáticos de destaque, Los Tratos De Argel e La Mumancia, obras que ajudam a lhe consolidar como um importante escritor.

Sua principal obra, no entanto, é publicada apenas em 1605, com a primeira parte de Dom Quixote, que é até os dias de hoje uma das mais importantes obras literárias da história. Há indícios de que Dom Quixote possa ter sido escrito, ou ao menos planejado, durante o período em que Miguel de Cervantes esteve preso, porém, não há provas de que isto seja real.

Com o sucesso de Dom Quixote, Miguel de Cervantes pôde passar a dedicar-se somente à literatura, juntando suas economias e sem precisar de outra ocupação. Porém, o sucesso de sua publicação trouxe algumas outras consequências, como, por exemplo, a publicação falsa de uma continuação de Dom Quixote, que posteriormente seria atribuída a Alonso Fernández de Avellaneda.

A publicação falsa fez com que Miguel de Cervantes se revoltasse pelo uso não autorizado de sua obra, o que lhe levou a escrever a segunda parte de Dom Quixote, “O engenhoso cavaleiro dom Quixote de La Mancha”, publicado em 1615, sendo mais uma vez um grande sucesso, posteriormente traduzido a mais de 60 idiomas diferentes.

Durante o tempo entre as duas partes de Dom Quixote, Miguel de Cervantes ainda escreveu outras obras de grande importância, como “As Novas Exemplares”, conjunto de crônicas de 1613, “A Viagem de Parnaso”, de 1614 e “Oito comédias e oito entremezes novos nunca antes representados”, também de 1615.

Além disso, Miguel de Cervantes escreveu “A Numancia”, um de seus mais populares dramas, que ficou inédito até o fim do século XVIII, assim como “O Trato de Argel”.

Morte de Miguel de Cervantes

Assim como sua data de nascimento, a data da morte de Miguel de Cervantes é alvo de algumas discussões sobre o dia exato. No entanto, o dia oficial de sua morte é 23 de abril de 1616, na cidade de Madrid, na Espanha, sendo a causa mais provável de sua morte a cirrose.

A importância de Miguel de Cervantes para a literatura e sua história é tamanha, que a data oficial de sua morte, 23 de abril, ganhou a comemoração do dia mundial do livro. Além disso, a proximidade com a morte de William Shakespeare (que morreu poucos dias depois de Cervantes) faz com que a ocasião seja ainda mais importante para a literatura.

Após mais de quatro séculos de sua morte, Miguel de Cervantes é ainda hoje um dos maiores nomes da literatura mundial, sendo sua obra objeto de análise e admiração a um incontável número de pessoas, que tem em seu trabalho a inspiração deixada por Miguel de Cervantes.

Fontes: Info Escola / Wikipedia / Substantivo Plural

Água-régia

Dentro do universo da química, algumas misturas se tornam tão conhecidas que acabam recebendo nomes especiais. É o caso da água-régia, que nada mais é do que a união de 2 substâncias. A seguir aprenda tudo sobre o assunto e quais são as aplicações desta mistura química que ficou tão famosa.

Água-régia

O que é água-régia?

Água-régia é o nome dado a uma mistura que une ácido clorídrico e ácido nitrídrico de forma concentrada. Geralmente isso ocorre em uma proporção de três partes para uma.

Altamente corrosiva, a mistura se torna levemente amarelada, mas não é daí que recebe este nome tão importante. A palavra régia tem origem no latim e significa real e esta alcunha foi dada a esta substância porque ela tem a capacidade de dissolver materiais nobres, inclusive o ouro, capacidade que é extremamente rara.

Mas não se trata de uma mistura capaz de dissolver qualquer tipo de material, já que alguns mais inertes como o irídio e o tantálio, por exemplo, não sofrem nenhuma alteração. Além disso, apesar do alto poder corrosivo, a água-régia possui uma vida útil bastante curta e por isso, deve ser utilizada assim que preparada, sempre com muito cuidado.

Não se sabe, com certeza, como e quando foi descoberta, mas a primeira utilização desta mistura é atribuída a um importante alquimista chamado Geber. Nascido na região onde hoje fica o Irã, era filho de farmacêutico e estudou, além do Alcorão, matemática, alquimia e diversos outros assuntos.

Geber possui, até hoje, uma grande importância no mundo da química. Apesar de ter ele próprio um grande misticismo, foi ele um dos primeiros a tentar separar a ciência que envolve a alquimia de superstições e pensamentos mágicos. Acredita-se inclusive que diversos equipamentos que ainda são utilizados nos laboratórios espalhados pelo mundo todo, são criação e desenvolvimento deste homem. Até o alambique é considerado uma obra sua.

Este alquimista do passado também foi um dos responsáveis por influenciar diversos outros alquimistas que vieram depois dele em busca da “pedra filosofal”.

Mas, entre outras descobertas, foi a água-régia que acabou deixando sua história ainda mais conhecida, já que a capacidade de dissolver e purificar o ouro, gerou interesse em pessoas de todos os cantos do planeta. A criação desta substância só se deu porque, foi Gerber quem descobriu os dois ácidos que compõe a mistura:

* ácido clorídrico
* ácido nitrídrico

Ou seja, podemos dizer portanto que o conhecimento de uma substância que tem o poder de dissolver, separar e purificar metais nobres, não é nenhuma novidade. Durante todos estes anos, desde sua criação, a água-régia tem sido aplicada para se conseguir diferentes tipos de objetivos.

Como a água-régia funciona e suas aplicações

O ataque aos metais nobres acontece a partir da água-régia, porém seus componentes em separado não conseguem alcançar o mesmo resultado. Cada um deles, em conjunto, é capaz de executar uma tarefa distinta.

O ácido nitrídrico possui um alto poder oxidante e consegue dissolver minúsculas partículas de ouro formando assim íons. Enquanto isso, o ácido clorídrico age formando íons de cloreto que ao reagirem diretamente com os de ouro acabam separando-o.

Além do ouro, ela é capaz de dissolver uma grande diversidade de metais, principalmente quando a solução dos ácidos é aquecida. Por este motivo, ainda hoje é altamente aplicada em laboratórios químicos e industriais.

A técnica é aplicada quando há a necessidade de separar um metal para ser avaliado mais tarde ou na solubilização de amostras. O uso da água-régia também é muito útil em testes expeditos, nos quais é preciso avaliar e identificar objetos e ligas metálicas para verificar a existência ou não de ouro, prata ou até platina. Este tipo de aplicação é bastante comum em laboratórios que prestam serviços específicos para joalherias e casas de penhor.

Há até uma história contando o quanto a água-régia pode ser utilizada em prol de algo maior e que foi um dos principais motivos para a popularização deste composto. Durante a Segunda Guerra Mundial, enquanto os nazistas tomavam conta da Europa, o químico húngaro George de Hevesy estava na Dinamarca quando esta era invadida pela Alemanha.

Ele utilizou a água-régia para dissolver as medalhas de ouro advindas dos prêmios Nobel de James Frank e Max Von Laue, que eram seus colegas, e guardar o material na prateleira de seu laboratório dentro do Instituto Niels Bohr a fim de deixá-las em segurança. Ao final da guerra, Hevesy voltou então ao local onde precipitou a mistura, a fim de conseguir separar o ouro novamente.

Mas atenção! A preparação da água-régia demanda cuidados e bastante conhecimento dos ácidos envolvidos e nunca deve ser feita próxima a outros compostos, devido ao seu alto poder oxidante.
É preciso acertar nas quantidades dos mesmos bem como na da água para que funcione. Além disso, a mistura não deve ser preparada em grandes quantidades e só pode ser manuseada com a utilização de equipamento de segurança, pois até sua inalação pode apresentar riscos.

Lei de Gay-Lussac

A história de toda e qualquer ciência é marcada por seu desenvolvimento ao longo da história. Nesse desenvolvimento, apesar de todos os estudiosos que se dedicaram a tal disciplina terem contribuído, alguns nomes se destacam. Esse é o caso de Joseph Louis Gay-Lussac, um importante físico e químico que tem importância ímpar na história desta última disciplina.

Lei de Gay-Lussac

Toda essa importância que o pesquisador francês tem para os estudos químicos é plenamente justificável. Ele deixou como legado uma contribuição decisiva para as leis dos gases, tanto no campo de seu comportamento químico, por meio da lei das proporções volumétricas, quanto no comportamento físico dos gases, através da transformação isocórica.
Vale ressaltar que mesmo que o estudo dos gases seja o trabalho mais conhecido de Gay-Lussac, ele também fez uma série de outros estudos, incluindo experimentos a respeito da eletrólise da água.

No entanto, este artigo será focado exclusivamente nas descobertas de seu experimento mais famoso, ou seja, a lei de Gay-Lussac – que, apesar do nome singular, diz respeito a três leis, que serão exploradas na sequência.

Primeira lei de Gay-Lussac

Essa primeira lei diz respeito às proporções volumétricas constantes dos gases ou, em outras palavras, à transformação de volumes de gases participantes de determinada reação química. Essa afirmação só é válida quando tanto os reagentes quanto o produto da reação são gases, e, por isso, exclui tanto reagentes quanto produtos em estado líquido ou sólido.

Além disso, deve-se considerar que, nos experimentos com gases, a temperatura e a pressão devem ser mantidas constantes, e justamente por isso a lei se chama proporções volumétricas constantes. Essa lei de Gay-Lussac enuncia que “o volume de substâncias gasosas que reagem e são produzidas em uma reação química sobre temperatura e pressão constantes, obedecem entre si uma relação de números inteiros”.

Segunda e terceira lei de Gay-Lussac

Essas últimas duas leis correspondem, respectivamente, à lei das transformações isocóricas e à lei das transformações isobáricas. Começando pela primeira, ela diz respeito à maneira que os gases se comportam quando estão sob pressão constante. Por ter contado com a participação do também químico francês Jacques Alexandre Cesar Charles, essa lei também é conhecida como a lei de Charles.

A principal premissa dessa lei é que “a pressão e temperatura de um gás sempre serão diretamente constantes se o volume também o for”. Por isso, se ocorrer um aumento na temperatura, a pressão também aumentará, sendo o contrário também verdadeiro, uma vez que são diretamente proporcionais. A fórmula dessa lei é dada por P = K/T, onde P é a pressão, K uma constante qualquer e T a temperatura.

Algo muito interessante nessa lei é que, segundo sua fórmula matemática, pode-se afirmar que a pressão de um gás dividida pela temperatura sempre será igual a uma constante. Isso pode nos levar a concluir que por tal fórmula é possível definir a pressão inicial e a pressão final, bem como a temperatura inicial e a temperatura final.

A afirmação é comprovada pela fórmula Pi/Ti = Pf/Tf, onde Pi é a pressão inicial, Ti a temperatura inicial, Pf a pressão final e Tf a temperatura final. Isso faz com que as possibilidades de aplicação da segunda lei Gay-Lussac seja consideravelmente aplicada, tanto no que diz respeito à química teórica quanto à química aplicada.

Por fim, a terceira lei de Gay-Lussac diz respeito, como já dito, às transformações isobáricas e ao comportamento dos gases diante de pressão constante. Segundo os experimentos feitos pelo pesquisador, sempre que determinado gás é colocado dentro de um recipiente com pressão constante, se o volume sofrer uma modificação, a temperatura absoluta sofrerá um aumento proporcional.

Dessa maneira, a terceira lei de Gay-Lussac pode ser sintetizada pela seguinte afirmação: “o volume e a temperatura de um gás são inversamente proporcionais se a pressão for constante”. Essa afirmação é dada pela fórmula matemática K = V/T, onde K é uma constante, V o volume e T a temperatura.

Assim como na segunda lei e observando a fórmula matemática, é possível concluir que o volume de um gás dividido pela temperatura sempre será igual uma constante. Dessa forma, é possível definir tanto o volume inicial e o volume final, quanto a temperatura inicial e temperatura final, algo que é dado pela fórmula Vi/Ti = Vf/Tf, onde Vi corresponde ao volume inicial, Ti à temperatura inicial, Vf ao volume final e Tf à temperatura final.

Assim, tendo sido expostas as três leis elaboradas por Gay-Lussac, podemos ter noção do quanto elas foram e continuam sendo importantes para os estudos químicos, especialmente aqueles voltados à química aplicada. Conhecendo as leis de antemão é possível prevenir uma série de erros e equívocos inerentes a todo e qualquer estudo experimental. Por esses motivos, o pesquisador foi capaz de firmar sua reputação e seu nome dentre as maiores figuras da química e na física.

Defeitos na Visão Humana

Embora os olhos sejam uma estrutura sensível, estando sujeitos a uma série de doenças, como a catarata, a conjuntivite, o descolamento de retina, o daltonismo, o DMRI, glaucoma, estrabismo e a síndrome do olho seco, são quatro os defeitos na visão humana.

Defeitos na Visão Humana

Para essa abordagem, trabalharemos apenas as disfunções dos olhos que podem ser solucionadas com o uso de óculos e lentes de contato para a correção das distorções geradas.

Como funciona a visão humana?

Para melhor explicar como se comportam esses defeitos da visão humana, o melhor caminho é, primeiramente, entender como funciona esse sofisticado sistema de captação, decodificação e reprodução da imagem, num processo que envolve o cérebro humano.

Uma boa forma de introduzir o tema é recorrer ao exemplo da máquina fotográfica. Sabe-se que em muitas de suas criações, a espécie humana reproduz o funcionamento do próprio corpo.

Mesmo em sofisticados sistemas organizacionais, percebe-se nitidamente a reprodução e a leitura dos sistemas que compõem o organismo humano.

No caso dos olhos, a máquina fotográfica sintetiza bem o funcionamento desse sistema. Toda câmera possui uma lente, que permite a entrada de luz para a formação da imagem. Essa imagem é projetada no filme fotográfico, onde é reproduzida. O diafragma da máquina controla a quantidade de luz que entra na máquina. Ele capta a quantidade de luz necessária para a formação da imagem, por isso ele se fecha quando há um ambiente extremamente claro e se abre mais na medida em que esse ambiente vai ficando mais escuro.

Uma forma de entender esse sistema é o que acontece com as pessoas quando se deparam com uma luz intensa vinda de uma fonte que a projete no sentido contrário à visão. Nessa situação, o indivíduo tende a fechar os olhos para tentar enxergar melhor e até para se proteger.

Quem conhece um pouco de fotografia sabe que o objeto fotografado, exceto se busque algum tipo de efeito artístico, deve ser posicionado contra a luz, enquanto a câmera deve ser posicionada a favor da luz, o que confere maior nitidez ao resultado, que é a foto.

Essa abordagem ajuda a explicar como funcionam os olhos e oferece um atalho satisfatório para o entendimento dos defeitos da visão humana.

O que ocorre com os olhos é um processo muito parecido com a fotografia, sendo que a visão humana permite uma percepção contínua do ambiente. Quando isso acontece, deixamos de ter uma fotografia para ter um filme. De qualquer modo, o processo de captação de imagem é o mesmo.

Quando o indivíduo olha para uma imagem, ela atravessa a córnea, que é como se fosse a lente de uma câmera. A imagem chega à íris, que, através da pupila, regula a quantidade de luz que entra nos olhos. Percebe-se que quanto mais escuro o ambiente, mais dilatada fica a pupila, pois quanto maior ela se apresenta, maior é a captação de luz.

Depois que a imagem atravessa a pupila, ela chega ao cristalino, que a projeta na retina, produzindo uma imagem invertida, que é transmitida ao cérebro. Para se ter uma ideia de que a visão humana é bem mais complexa que uma câmera fotográfica, a retina é habitada por mais de 100 milhões de células fotorreceptoras. Cabe a elas transformar as ondas luminosas em impulsos eletroquímicos, que serão emitidos ao cérebro, onde serão codificados, originando a imagem que formamos, ou o que vemos.

Todo esse processo ocorre em fração de segundos, de forma contínua, durante toda uma vida, sendo esse apenas um dos complexos e sofisticados processos do corpo humano.

Em algumas situações, no entanto, ocorrem as disfunções, os defeitos da visão humana.

Os quatro defeitos

Agora que nós já temos uma ideia clara sobre o funcionamento da visão humana, ficará mais fácil entender como ocorrem os quatro defeitos da visão humana.

1 – Miopia

Na miopia, o problema é que a imagem se forma antes da retina. Isso ocorre pelo falto do olho ser mais longo do que o normal, por excesso de curvatura da córnea e/ou do cristalino.

Esse defeito faz com que as pessoas tenham dificuldade de enxergar ao longe. Como sabemos, o correto é que a imagem se forme na retina. Ao se formar antes da mesma, a imagem mais distante não é decodificada.

O defeito pode ser corrigido com o uso de lentes que retardem essa formação da imagem, de modo que ela ocorra na retina. Há, também, tratamentos cirúrgicos para a correção do defeito.

2 – Hipermetropia

Na hipermetropia ocorre o contrário: a imagem se forma depois da retina. Isso faz com que as pessoas tenham dificuldade de enxergar as imagens próximas. Nesse caso, o olho é curto demais e isso faz com que o cristalino tenha dificuldade de projetar a imagem.

3 – Presbitia

É a chamada vista cansada. Tem esse nome porque acomete pessoas com idade avançada. É decorrente da dificuldade que o cristalino tem de se tornar convergente, acarretando um sintoma parecido com o da hipermetropia, que é a dificuldade para enxergar objetos próximos dos olhos.

Em ambos os casos, a solução é a utilização de lentes convexas.

4 – Astigmatismo

O astigmatismo é um problema decorrente da formação defeituosa da córnea. A captação de luz é disfuncional, de modo que a imagem transmitida para o cérebro tem deficiência de nitidez.

É muito comum o astigmatismo aparecer concomitantemente à hipermetropia e à miopia. Para corrigir o problema, deve-se usar lentes cilíndricas, que podem ser convergentes ou divergentes, dispostas de modo a corrigir as distorções.

Características das interjeições

A língua portuguesa é extremamente rica e pode, por vezes, ser considerada complicada e de difícil compreensão. Uma das regras da nossa gramática, que pode ser vista como um auxílio na hora de nos expressarmos é a interjeição.

Características das interjeições

As características das interjeições são ótimas aliadas aos textos que buscam uma compreensão total do leitor. Ou seja, quando o autor quer passar todas as emoções sem ter que destrinchar cada ação de seus personagens, ele usa uma interjeição.

Nos parágrafos a seguir vamos entender melhor o que são as interjeições na língua portuguesa e como utilizá-las no dia a dia da melhor forma possível, ressaltando todos os seus atributos textuais.

O que são interjeições?

Interjeições são todas as palavras em um texto que têm a missão de exprimir ou expressar, por exemplo: emoções, sensações, sentimentos e estado de espírito. Além dessas situações, a interjeição também é utilizada para levar o interlocutor a alguma ação, sem a necessidade de estruturas mais longas e elaboradas dentro de uma frase ou parágrafo.

Exemplos clássicos desses dois momentos em que a interjeição é utilizada são as palavras: Ah!, que pode significar excitação ou decepção, dependendo de seu contexto, e a palavra Psiu!, que normalmente é utilizada para chamar a atenção ou para pedir silêncio.

Podemos acrescentar que, quase sempre as interjeições virão seguidas de pontos de exclamação, isso acontece para enfatizar o significado de cada uma dentro do seu texto. A seguir, separamos uma lista de interjeições que pode ser um verdadeiro manual para quem se interessa por textos mais dinâmicos com o uso desse tipo de expressão.

Empregando as interjeições mais populares

Quando você quer exprimir alegria, as seguintes interjeições podem ser utilizadas:
Oh!, ah!, oba!, viva! E por aí vai.

Quando falamos em dor e queremos dar vivacidade a essa sensação, podemos aproveitar as seguintes interjeições:
Ai!, ui!.

Para demonstrar espanto e surpresa existe uma infinidade delas que podemos usar, vamos citar algumas:
Oh!, ih!, céus!, vixi!, meu Deus!, puxa!…

Para chamar a atenção de alguém, além do Psiu!, que já foi citado, podemos utilizar:
Olá!, alô!, oi!…

Quando queremos exemplificar o medo, as interjeições sugeridas são:
Uh!, credo!, cruzes!, Jesus!, ai!.

Quando queremos muito algo e é essencial mostrar esse desejo podemos utilizar:
Tomara! Oxalá!, queira Deus!, assim espero!, quem me dera!…

Para pedidos de silêncio:
Calado!, quieto!, bico fechado!…

Para afugentar:
Xô!, fora!, rua!, saia!…

Para demonstrar grande alívio:
Ufa!, uf!…

Com todos esses exemplos pudemos perceber que as características das interjeições, são principalmente, carregar em pequenas palavras o sentido de uma frase. Elas são chamadas, por esse motivo, de palavra-frase, o que significa que são uma ideia completa expressa por uma única palavra.

Um exemplo simples disso seria:
Ai!, ai!, ai!…

Ao ler essas três palavras dentro de um romance, você de cara imaginaria que alguém se machucou. Essa é a missão da interjeição. Nesse caso, ela permitiu que uma frase como, por exemplo: “Torci meu tornozelo e está doendo muito”, fosse substituído por apenas, Ai!, ai!, ai!.

As interjeições estão diretamente ligadas à afetividade e às emoções, isso porque não têm o dever de ser uma frase ordenada e estruturada e sim de passar a ideia de algo que o interlocutor sente ou vive em determinado momento.

Exemplo: Ah! Que saudades da minha infância.

Dificilmente sem a interjeição “Ah!” seria possível passar o sentimento saudosista dessa frase com a mesma intensidade e com tão poucas palavras.

Vamos a mais um exemplo:
Uhu! Ganhei!

Se você escolheu a alegria ou a euforia, você está certo (a). E com apenas duas palavras, sentimos a vibração na frase, graças ao emprego da interjeição no local e na hora certa.

E por fim, mas não menos importante:
Psiu!

Essa palavra empregada em um cartaz em um corredor de hospital, por exemplo, nada mais é do que um pedido de silêncio. Podemos até imaginar a foto do cartaz, com uma enfermeira pedindo o silêncio, em respeito aos enfermos presentes no local.

Dessa forma, entendemos a importância e as características das interjeições, lembrando que uma interjeição não possui nenhuma relação sintática com o restante da frase ou período do qual é inserida. Além disso, uma interjeição, por si só, pode dar sentido ao que quer ser dito, sem a necessidade de uma frase completa.

Uma curiosidade das interjeições é a de que elas mudam conforme o sentido e contexto em que se encontram, o que possibilita, que dependendo da disposição no texto, qualquer palavra possa se tornar uma interjeição, segundo a necessidade do autor.

Não se esqueça, as interjeições são muito importantes para caracterizar emoções e devem ser estudadas a partir do contexto em que se encontram para que sejam identificadas, já que podem ter vários sentidos, segundo o seu uso. Não deixe de usá-las para dar vida ao seu conteúdo.

Importância dos fungos na alimentação e meio ambiente

Os fungos fazem parte do Reino Fungi. Alguns são seres microscópicos, outros, os macroscópicos, podem ser vistos a olho nu, como é o caso dos cogumelos, por exemplo. Outros fungos mais populares são os mofos, bolores e leveduras.

Importância dos fungos na alimentação e meio ambiente

Além da importância dos fungos para o meio ambiente, muitos são aproveitados na produção de alimentos, como alguns tipos de queijos e pela indústria farmacêutica. A penicilina, por exemplo, é um medicamento desenvolvido a partir de fungos. Contudo, existem muitos outros tipos de fungos que causam doenças como as indesejáveis micoses no corpo humano e de animais.

O Reino Fungi é dividido em cinco Filos: ascomicetos, basidiomicetos, deuteromicetos, quitridiomicetos e zigomicetos. Um fungo pode ser unicelular ou pluricelular, eucariota (possui somente um núcleo celular) e heterótrofo (seu organismo não produz o próprio alimento).

1. Reprodução dos fungos: A reprodução assexuada pode ocorrer através de sucessivas mitoses que originam novos fungos, por esporulação e brotamento. O processo de reprodução sexuada é dividido em três fases: fusão de protoplasma (plasmogamia), formação do núcleo diploide, a partir da junção de dois núcleos haploides (cariogamia) e divisão do núcleo diploide, formando dois núcleos haploides (meiose).

2. Alimentação dos fungos: Os seres do Reino Fungi não produzem o próprio alimento. Os sarcófagos alimentam-se de organismos mortos. Os parasitas sobrevivem à custa de substâncias produzidas por organismos vivos. Os predadores conseguem capturar minúsculos ou microscópicos animais para se alimentar. Para digerir melhor os nutrientes, os fungos produzem a exoenzima.

8 tipos de fungos mais populares

1. Bolor: Esse tipo de fungo desenvolve-se, principalmente, em plantas e alimentos. É um fungo microscópico, que gera manchas brancas em folhas, cascas de frutas e na superfície de outros alimentos.

2. Champignon, shitake e shimeji: Fungos comestíveis, utilizados em variadas receitas culinárias.

3. Levedura: As leveduras podem ser usadas na fermentação de alguns tipos de bebidas alcoólicas e no preparo de massas, como pães.

4. Mofo: Esse fungo é facilmente percebido por gerar um aglomerado de filamentos, geralmente esverdeados sobre alimentos, resíduos orgânicos, em superfícies e objetos situados em ambientes com bastante umidade.

5. Orelha-de-pau: Esse tipo de fungo é muito conhecido. Cresce em troncos de árvores, sendo semelhantes ao formato de uma orelha.

6. Penicillium: Desenvolve-se em ambientes úmidos e pode ser utilizado na fabricação de antibióticos como a penicilina ou queijos.

7. Tinha: Vive no corpo humano, alimentando-se da queratina da pele. A proliferação excessiva gera micoses nos pés, couro cabeludo, virilha e outras partes do corpo.

8. Trufa: Também é um fungo comestível, que cresce embaixo do solo. É um ingrediente caro, usado em receitas culinárias sofisticadas.

Importância dos fungos para o meio ambiente

Fungos são seres decompositores, por isso, desempenham um papel muito importante para o equilíbrio ecológico. Agem na decomposição de seres mortos e resíduos orgânicos eliminados por organismos vivos, como a urina e as fezes. Dessa forma, os fungos ajudam a “limpar” o meio ambiente, evitando o acúmulo de resíduos orgânicos.

Importância dos fungos na alimentação

A indústria da alimentação, há séculos, utiliza vários tipos de fungos no preparo de receitas. Cogumelos, trufas e shitake, por exemplo, são ingredientes que compõem diversos pratos. O shitake e o shimeji são fontes de vitamina B, zinco e proteínas. Esses dois tipos de fungos também possuem uma substância chamada beta glucada que ajuda a combater o colesterol ruim e o envelhecimento.

As leveduras, como a Saccharomyces cerevisae, são usadas na fermentação de pães. O gás carbônico liberado nesse processo deixa as massas mais leves. Também podem ser utilizadas na fabricação de bebidas alcoólicas como a cerveja, vinho, uísque, aguardente e saquê. As leveduras Saccharomyces cerevisae fermentam a cevada, uvas, cana-de-açúcar e arroz, porém, para a fabricação de vinhos são usadas as leveduras Saccharomyces ellipsoideus.

Os queijos camembert e roquefort são produzidos com o uso dos fungos Penicillium camemberti e Penicillium roqueforti, respectivamente. A ação desses fungos é essencial para os sabores característicos desses dois queijos. O gorgonzola é outro tipo de queijo preparado com o fungo Penicillium.

Indústria farmacêutica utiliza vários tipos de fungos

Além da importância do Reino Fungi para o meio ambiente e para a alimentação, a saúde é outra área na qual os fungos são utilizados. Um dos antibióticos mais populares – a penicilina – é produzido com substâncias existentes no fungo Penicillium Notatum. As propriedades desse fungo foram descobertas, em 1929, por Alexander Fleming. A ciclosporina, medicamento imunossupressor, que ajuda a reduzir os riscos de rejeição de órgão após o transplante, é fabricada com substância extraída do fungo Tolypocladium inflatum.

Há vários estudos em andamento sobre a aplicação de fungos na fabricação de medicamentos. Existe uma pesquisa sobre a ação de um tipo de fungo existente na casca de frutas cítricas no combate a células cancerígenas. Outra pesquisa busca viabilizar a produção de asparaginase, enzima usada em medicamentos contra a leucemia, com o uso de fungos. Esses medicamentos são produzidos, atualmente, com enzimas de bactérias. Os pesquisadores tentam obter o mesmo tipo de enzima a partir de leveduras.

Os resultados positivos desses estudos, certamente, proporcionarão muitos benefícios à saúde pública.

As informações desse artigo foram úteis a sua pesquisa? Compartilhe e leia outros posts no blog!

Academia Francesa

Fundada em 1634 pelo Cardeal Richelieu, a Academia Francesa foi inspiração para a formação da brasileira. A semelhança não se deu apenas na formação, mas na estrutura sobre a quantidade de membros e até mesmo o uso dos fardões. Criada inicialmente para estabelecer padrões literários da língua francesa, desde sua fundação permitiu a inclusão de escritores de outras nacionalidades desde que usassem a língua francesa, o que não ocorre com a academia brasileira.

Academia Francesa

Ainda hoje a Academia Francesa é uma das organizações mais antigas e tradicionais do país e tem importância fundamental para a literatura mundial. Denominados “imortais”, seus membros são selecionados de acordo com sua relevância e influência sobre a língua francesa. Cada membro tem direito a uma das quarenta cadeiras, de onde só sai após sua morte.

Origem da academia francesa

O cardeal Richelieu, também Duque de Richelieu e de Fronsac, foi uma das figuras históricas mais importantes da França e que foi peça fundamental na liderança do país na Europa do século XVI e XVII. Descendente de uma família nobre de Poitou, se tornou Bispo e Luçon em 1607, orador do clero em 1614 e se tornou cardeal em 1622. Como conselheiro do Rei Luis VIII e em seguida seu Primeiro-Ministro, Richelieu foi determinante para o combate contra os protestantes e ingleses.

Para proteger os limites franceses, também combateu os católicos Habsburgos, que governavam a Espanha e a Áustria, se aliando aos protestantes alemães para sair vitorioso. Sua influência sobre o rei perdurou por toda vida, dando continuidade a política absolutista, valorização das finanças, exercito e legislação.

Richelieu era também um grande incentivador das tradições francesas e viu num grupo de escritores que se reuniam para falar de literatura, uma ótima oportunidade de estruturar e criar regras para a língua francesa. Na época de Luis XIII a França era considerada a capital cultural do mundo, recebendo grande efervescência intelectual. O linguajar exuberante e rebuscado era usado pela alta sociedade e nobreza, chamados de preciosos.

Intelectuais como Alfred Malherbe, Vicente Voitiure, Balzac, Racan entre outros, se reuniam em casas nobres como da marquesa de Rambuillet para trocar ideias, informações e, principalmente, demonstrar sua inteligência para se destacar. Enquanto isso, outro grupo de eruditos se reunia na casa do secretário do Rei Luis XIII, Valentin Conrart. Dentre eles estava o braço direito do Cardeal Richelieu, que o manteve a par dos acontecimentos naquele local.

Para expandir seu poder, Richelieu viu nessas reuniões uma ótima oportunidade de se aliar à elite intelectual francesa. Dessa forma seria muito mais fácil mantê-la aliada ao Estado. Seu foco era valorizar a clássica arte estética em detrimento ao barroco, impedindo seu avanço sobre a França. Logo convidou os intelectuais desse grupo a criarem reuniões em instituições oficiais, para que tivessem proteção e incentivo do governo. No início eram nove eruditos credenciados, que foram para 29 e terminaram com 40.

Formação e importância da Academia Francesa

O epíteto de “os imortais” foi definido a partir de uma das principais regras desse novo grupo, no qual um membro só sairia após sua morte. Os próprios acadêmicos elegiam os novos integrantes para ocupar as cadeiras vagas, sempre seguindo os principais parâmetros da nova Academia.

Mas seu principal intuito era cultivar a língua francesa, inclusive dotando regras ao idioma para mantê-la o mais pura possível e fluente, capaz de emoldurar não só as artes como também a ciência. O anfitrião da casa, Valentin Conrart, que iniciou o grupo, foi o primeiro secretário perpétuo da Academia e direcionou o grupo a sua primeira ação oficial ao criar o primeiro Dicionário da Língua Francesa.

O nome de Academia Francesa foi inspirada em “Akademos”, localizada em Atenas e onde Platão ensinava filosofia. Foi uma forma de salientar a busca pelo tradicional, num nome que já havia sido utilizado para definir um grupo de artistas plásticos italianos.

A Academia Francesa foi oficialmente estabelecida em 22 de fevereiro de 1636, pelo Rei Luis XIII. Foi fechada durante a Revolução Francesa e só retornou durante o governo de Napoleão Bonaparte, mantendo até os dias de hoje a função de regulamentar o vocabulário e gramática da língua francesa.

Mesmo que não tenham a força da lei, suas decisões são geralmente consideradas e mantém a publicação do dicionário oficial do francês. Já foram produzidas nove edições de seu dicionário que serve como base para todas as escolas literárias do país. A valorização da língua é nítida na população, que tem dificuldade em inserir palavras inglesas em seu vocábulo cotidiano, sendo até mesmo criticada pelo radicalismo.

Os primeiros imortais, seguidos pelo número de suas cadeiras, foram Pierre Séguier, Valentin Conrart, Jacques de Serizay, Jean Desmarets de Saint-Soelin, Jean Ogier de Gombauld, François de Le Melel de Boisrobert, Jean Chapelain, Claude de Malleville, Nicolas Faret, Antoine Godeau, Phillippe Habert, Germain Habert, Claude-Gaspart Bachet de Méziriac, François Maynard, Guillaume Bautru, Jean Sirmond, François de Cauvigny de Colomby, Jean Baudoin, François de Porchères D´Arbaud, Paul Hay Du Chastelet, Marin de Le Roy de Gomberville, Antoine Gérard de Saint-Amant, Gullaume Collet, Jean Silhon, Claude de L´Estoille, Amable de Bourzeis, Abel Servien, Jean-Louis Guez de Balzac, Pierre Bardin, Honorat de Bueli, Pierre de Boissat, Claude Favret de Vaugelas, Vicent Voiture, Honorat de Porchères Laugier, Henri-Louis Habert de Montmort, Marin Cureau de la Chambre, Daniel Hay Du Chastelet de Chambon, Auger de Moléon de Granier, Louis Giry e Daniel de Prièzac.

O acadêmico pode ser expulso da academia caso demonstre impropriedade de sua conduta. Ao todo foram vinte intelectuais expulsos até hoje, por motivos políticos e criminais. O primeiro presidente da academia foi o Cardel Richelieu.

Imposto de Renda Pessoa Física

Quando chega a hora de declarar o Imposto de Renda de Pessoa Física, muitos contribuintes entram em pânico. O grande receio é o de não conseguir preencher corretamente, além da complexidade de informações.

 Imposto de Renda Pessoa Física

Para esses, há duas boas notícias:

1 – Um contador, em geral, não cobra mais que R$ 200,00 para fazer uma declaração com conhecimento profissional.

2 – Para quem não tem muitos bens e deduções, ou seja, para o trabalhador que ganha dentro da faixa de contribuição, não é necessário grandes conhecimentos de operação de um computador para fazer a declaração através do site da Receita.

Alguns trabalhadores ainda têm o privilégio de serem descontados em folha, o que facilita ainda mais, pois é possível retirar o espelho junto à própria empresa, que mostra a renda e os valores recolhidos para o Imposto de Renda de Pessoa Física.

Há quem reclame de ter que pagar mais um entre tantos impostos. Sem dúvida alguma, a estrutura tributária brasileira é desgastante mesmo para pessoas físicas.

Por que existe um imposto?

Por outro lado, é preciso entender qual a finalidade do Imposto de Renda da Pessoa Física. Trata-se de uma receita do Estado decorrente de um tributo que incide sobre a renda do contribuinte. Entenda-se por renda, salários, vendas de imóveis, heranças, etc., além de patrimônios materiais. Tudo isso deve ser declarado para que o sistema possa calcular o valor a ser recolhido.

Essa receita do Estado é usado para a manutenção das políticas e serviços públicos, sejam eles federais, estaduais ou municipais. Sem essas receitas, o Estado seria inoperante, incapaz de fazer a gestão pública e prestar serviços como previdência, saúde, educação, infraestrutura e outros.

Quem precisa declarar?

São obrigados a declarar o imposto de renda todos aqueles que tiveram rendimentos tributáveis iguais ou superiores a R$ 28.559,70, o equivalente, por exemplo, a quem recebe um salário igual ou superior a R$ 1.903,98 mensal.

São obrigados a contribuir, também, proprietários de imóveis ou terrenos com valor superior a R$ 300 mil (legislação referente a 2018, referente ao ano fiscal de 2017).

Mesmo aqueles que são isentos do imposto devem declarar, embora não seja obrigatório, já que há benefícios para os mesmos, como a declaração de renda aceita pelo sistema financeiro.

Para quem está obrigado a declarar o Imposto de Renda de Pessoa Física e não o faz, há uma série de penalidades, a começar pela citação no CPF de que há pendência fiscal. Em razão disso, o contribuinte não pode tirar passaporte, fazer empréstimos, prestar concursos públicos e obter certidões negativas para aluguel ou venda de imóvel.

Além disso, o contribuinte está sujeito à multa de 1% ao mês por atraso na entrega da declaração, que incide sobre o montante do imposto a ser pago, podendo chegar a até 20% do mesmo.

Quanto à malha fina, não há razão para alarde na maioria dos casos. O contribuinte pode cair na malha fina devido a pequenas divergências entre as informações, o que pode ser resolvido rapidamente pela internet.

No caso de omissões, ou o contrário é necessário fazer uma Declaração de Retificação.

Declaração completa e simplificada

Há dois tipos de declaração: completa e simplificada.

A declaração simplificada é a mais fácil de fazer, principalmente se o contribuinte optar por fazer o processo online. Nesse caso, precisa ter em mãos a última declaração ou o número do título eleitoral, informe de rendimentos, informes de rendimentos financeiros (aplicações e investimentos), previdência privada e ficha de bens tributáveis.

Nesse caso, o valor da alíquota é fixo e incide sobre 20% da renda tributável. Nesse modelo de declaração não está prevista a possibilidade de deduções.

Se o contribuinte percebe que há uma forte incidência de despesas dedutíveis, incluindo atendimento médico, plano de saúde, serviços odontológicos, investimento em educação e doações, deve optar pela declaração completa. Nesse caso, precisa anexar a documentação comprobatória das referidas despesas.

A declaração deve ser entregue entre o primeiro dia útil de março e o último minuto do último dia de abril do ano posterior ao do rendimento declarado.

O que é a restituição

A restituição ocorre em alguns casos em que é preciso corrigir o ajuste anual. São casos em que o contribuinte pagou mais que o devido ou pagou sem dever nada.

É comum acontecer com trabalhadores cujo recolhimento é feito na fonte. Eventualmente, há recolhimento em cima da renda de um ou mais meses, mas a renda anual fica abaixo da renda mínima tributável. Nesse caso, o contribuinte é restituído.

Da mesma forma que ocorre a restituição, pode também ocorrer o contrário, caso o valor recolhido tenha sido inferior ao valor devido.

Como esclarecer dúvidas?

Caso tenha alguma dúvida que não foi esclarecida neste artigo, um dos procedimentos possíveis é acessar o “Perguntão” da Receita Federal, que disponibiliza uma lista de perguntas e respostas.

Se pode gastar algum dinheiro para evitar a dor de cabeça, a melhor saída é pagar um contador para cuidar do assunto, principalmente, como já dito, se o contribuinte tiver uma declaração mais complexa a fazer.

Lixo

Todo mundo produz lixo, principalmente nas cidades onde há uma grande quantidade de produtos industrializados e embalados, sendo consumidos todos os dias. Por isso é considerado um dos grandes problemas mundiais, e uma responsabilidade de todos os cidadãos.

Lixo

Mas para onde vão todas as coisas que descartamos? Para conhecer mais a respeito do lixo e descobrir como fazer sua parte para minimizar esse problema, leia o artigo a seguir:

O lixo e suas classificações

O lixo é uma questão humana, resultante da vida em sociedade. Entre todos os animais, somos os únicos capazes de deixar para traz uma quantidade grande de detritos que, na maioria das vezes, não são reaproveitados. Por isso, florestas, matas, rios e ruas ficam inundados com tudo que acabamos descartando sem pensar, causando um problema grave de poluição que pode durar muitas gerações, mas que é algo relativamente novo em nossa sociedade.

Até meados do século XX, ainda antes da Revolução Industrial, grande parte de tudo que era descartado nas casas das pessoas era material orgânico não poluente, que podia ser enterrado, se transformando em adubo.

Porém, a industrialização criou um universo de produtos embalados em papel, plástico e latas, sem contar todos os dejetos oriundos da própria fabricação de tantos objetos. Aí sim o lixo passou a se acumular mais e mais sem que houvesse muita preocupação com essa questão. Infelizmente em grande parte do país e até em outras partes do mundo, o lixo é somente deixado em um canto qualquer, trazendo doenças e poluindo tudo ao seu redor.

Mas afinal, do que se trata o lixo? Há diferentes tipos de lixo e por isso, podemos classificar tudo que é descartado de acordo com suas características. De maneira geral e ampla, podemos caracterizar os detritos da seguinte forma:

* Orgânico
* Inorgânico reciclável
* Inorgânico não reciclável
* Tóxico

O lixo orgânico é o mais fácil de lidar, já que é todo aquele gerado a partir de material que pode ser reaproveitado pela natureza. Esse tipo de descarte também tem uma característica muito importante, que é a de ser rapidamente dissolvido, além de não poluir. São enquadrados nessa categoria os restos de comida, plantas, folhas, sementes e madeira.

O inorgânico reciclável é formado de materiais de alumínio como latas, por exemplo, vidro, papel, plástico, tecido, alguns tipos de borracha e afins. É considerado um lixo importante e de certa forma até positivo, pois quando separado da forma correta, pode ser tratado e voltar para a indústria, se transformando em outro novo produto. O reciclável também pode ser transformado em outros objetos através de artesanato.

Já o inorgânico não reciclável, é formado por rejeitos que sejam formados de material que não pode ser reaproveitado ou transformado em outra coisa. Há uma imensidade de rejeitos que entram nessa categoria, como por exemplo fotografias, espelhos, alguns tipos de plásticos e embalagens metalizadas, E.V.A, fraldas descartáveis usadas, lenços de papel, esponjas e muito mais.

O tóxico é formado por materiais altamente prejudiciais ao meio ambiente e até à saúde humana, como por exemplo pilhas, baterias e componentes químicos, metais pesados, resíduos nucleares e hospitalares como agulhas utilizadas e medicamentos.

Ou seja, cada um deles deveria receber tratamento e descarte diferenciado, porém, o que acontece é que, em grande parte do país, todo o material é deixado em lixões a céu aberto, misturados, poluindo o solo e a água devido à penetração dos compostos nos lençóis freáticos.

Qual a melhor maneira de lidar com o lixo?

A melhor forma de garantir um bom uso e reaproveitamento do lixo é separá-lo e assegurar que não haverá poluição. Os aterros sanitários devem ser construídos de forma planejada, com projetos que possibilitem o descarte de materiais, sem que ocorra nenhuma contaminação do solo e da água.

É preciso tomar cuidado com os gases e líquidos resultantes da decomposição do material descartado, para que o ar também não acabe sofrendo com o problema.

Além disso, é possível aproveitar todo o gás decorrente da decomposição de material orgânico para a produção de energia e transformar em receita o que seria considerado perdido. Isso sem falar que esse tipo de ação colabora para uma proteção dos recursos naturais.

A reciclagem de detritos também deve ser um dos focos principais de todo o descarte de materiais, já que isso pode gerar renda e trabalho para muita gente. Esse trabalho importante é uma responsabilidade de todos nós e começa dentro das casas das pessoas, nas empresas e indústrias. O primeiro passo é conhecer a classificação de cada tipo de lixo e separar de forma que possa ser reutilizado novamente, sem contaminações.

Afinal, é preciso que lembremos sempre que os recursos naturais do planeta são finitos e é fundamental proteger o meio ambiente. Isso sem falar que o descarte incorreto de materiais pode ocasionar o aumento de animais hospedeiros de doenças, como insetos e roedores.

Conflito Árabe-Israelense

O conflito árabe-israelense por terras no Oriente Médio é milenar e faz parte da história desse povo por considerarem os mesmos espaços pertencentes a eles por direito, principalmente por questões religiosas. Com o passar dos anos outros motivos foram se unindo à religião, como fatores socioeconômicos, posicionamento estratégico, imposição cultural e influências externas de outros países com interesses na região.

Conflito Árabe-Israelense

A situação ficou ainda mais grave no final do século XIX, quando judeus e árabes reivindicaram os direitos sobre a Palestina, quase sempre de forma violenta envolvendo pelo menos cinco grandes guerras e uma infinidade de conflitos armados. Com a criação do Estado de Israel no final da Segunda Guerra Mundial, os conflitos árabe-israelenses passaram a ser cotidianos e de ordem mundial. Principalmente pela reivindicação do povo palestino por ter os mesmos direitos a uma terra só deles, que em grande parte é ocupada pelos judeus.

A Terra Prometida dos Judeus

Palestinos e Israelenses lutam pelos direitos da Palestina há milhares de anos e a região é descrita como sagrada nos principais livros religiosos do judaísmo, islã e até mesmo do cristianismo. No século I os romanos massacraram os judeus da Palestina, desmontaram rebeliões, destruíram seu Templo judaico em Jerusalém, assassinaram grande parte de seus praticantes e expulsaram o restante, fazendo com que o povo se espalhasse por várias regiões do mundo e alguns ficassem ainda em seu entorno.

Esse êxodo foi marcante para a cultura judaica e a história da humanidade, conhecida como diáspora e desde então os judeus passaram a sonhar em voltar para a “Terra Prometida” e a ter sua comunidade unida como antes. Foi nesse período que os romanos mudaram o nome de Terra de Israel para Palestina, como até hoje é também conhecida.

No século VII a Palestina foi tomada pelos muçulmanos árabes, que em pouco tempo proibiu a peregrinação de fieis judeus e cristãos, principalmente na cidade de Jerusalém, criando uma série de conflitos como o ocasionado pelas Cruzadas. As Cruzadas eram formadas por soldados voluntários cristãos, que buscavam expulsar os muçulmanos da região e abrir a fronteira para que os religiosos pudessem exercer sua fé. Como o exercito árabe era muito mais preparado, as Cruzadas não tiveram êxito em sua empreitada.

O Império Otomano só foi realmente derrotado ao fim da 1ª Guerra Mundial, quando a Palestina foi dominada pelos ingleses. A proposta era reconstruir a região e torná-la livre para que os judeus pudessem, finalmente, voltar a sua Terra Prometida. Em seguida os judeus começaram a comprar maciçamente terras na região e se iniciou uma grande migração. Houve até mesmo um acordo chamado Faiçai-Weizmann, que incentivava a cooperação entre árabes e judeus para que a Terra Santa pudesse ser uma nação de ambos. Muitos árabes não viram problemas em vender suas terras para os judeus e não se preocuparam com a sua expansão na região até aquele momento.

A ida dos judeus para Jerusalém foi chamada de Sionismo, como referência a ida para Colina de Sion, em Jerusalém. Segundo o Velho Testamento da Bíblia que faz parte do Torá, Deus deu a Terra prometida, que era chamada de Canaã e localizada em Israel, para os antigos povos judeus que eram então conhecidos como hebreus ou israelitas. Homens como Abraão, Moises, Davi e Salomão perpetuaram esses ensinamentos, que culminou com o próprio Jesus, que era judeu apesar de se colocar em conflito com o desenvolvimento da sua religião. Os judeus nunca perderam o foco em retornar à sua região e colocar em prática as designações do seu livro sagrado.

O movimento sionista tomou forma e força em 1897, criando as bases para que houvesse essa migração judaica após a guerra. Porém, essa questão foi apenas formatada de forma teórica, já que na prática os árabes permaneciam habitantes da Palestina e começaram a entrar em conflitos diretos com os novos assentados judeus.

Como as áreas não foram realmente delimitadas foram iniciados conflitos árabe-israelenses violentos, que só cresceram ao longo dos anos.

A influência da Segunda Guerra Mundial

Antes do início da Segunda Guerra Mundial, o nazismo foi ascendendo e criando raízes na Alemanha e em países ao seu entorno, iniciando uma perseguição a alguns povos como ciganos, gays, negros, mas especialmente aos judeus. Baseados em rasos fundamentos religiosos, o fanatismo em manter a humanidade mais pura, incluía o extermínio literal dos judeus.

Em paralelo, os países que rivalizavam ao nazismo ampliaram ainda mais seu apoio à criação do Estado Israelense, que se solidificou com o genocídio causado pela guerra ao povo judaico, e formou uma verdadeira ferida na humanidade. Diante do terror vivido, a recém-criada ONU (Organização das Nações Unidas) teve como primeira grande ação a divisão da região da Palestina entre judeus e árabes. Como os judeus tinham a maior parte do território, 56%, foi criado o Estado de Israel em 1948.

Os árabes não ficaram satisfeitos com a divisão e a alteração do nome. Dessa forma, a Jordânia, Síria, Iraque, Líbano e Egito se uniram formando a Liga Árabe para invadir Israel e tomar de volta a região. Chamada de Guerra da Independência, os israelenses foram vitoriosos e contaram com a ajuda militar e estratégica dos EUA e Inglaterra, ampliando também suas fronteiras e ocupando então, 75% da região.

Foi a primeira guerra iniciada após a criação do Estado de Israel e só o início de um longo e violento conflito árabe-israelense que não tem previsão de terminar. Logo após a Guerra da Independência, o Egito formou a chamada Faixa de Gaza, a Jordânia fundou a Cisjordânia e guerras de 1956, 1967, 1968, 1979, 1973 e 1983 mantiveram a rivalidade na mais alta potência e elevaram ainda mais o ódio entre as etnias e religiões. A Faixa de Gaza é considerada a região mais perigosa e violenta do mundo.

Distribuição Eletrônica de Elétrons

A história da distribuição eletrônica dos elétrons começa com o modelo atômico de Rutherford-Böhr. Esse modelo atômico foi capaz de provar que todo átomo possui em sua constituição um núcleo que é formado por nêutrons e prótons.

Distribuição Eletrônica de Elétrons

Além desse núcleo recheado de nêutrons e prótons, o átomo também possui uma eletrosfera que é formada por diversas camadas eletrônicas. Essas camadas eletrônicas são constituídas por valores de energia que são específicos e únicos para cada tipo de átomo estudado.

Considerando todos os elementos conhecidos e identificados atualmente, é possível afirmar que o número máximo de camadas eletrônicas existentes é sete, e cada uma dessas camadas é representada por uma letra do alfabeto, sendo elas as camadas K, L, M, N, O, P e a camada Q.

Mais sobre a distribuição eletrônica de elétrons

Você deve estar se perguntando ao que se refere especificamente a distribuição eletrônica. É esse tipo de distribuição que demonstra a maneira em que todos os elétrons estão distribuídos nas camadas de energia que estão localizadas exatamente ao redor do núcleo do átomo específico.

Também conhecida como o princípio da configuração eletrônica, a distribuição eletrônica dos elétrons representa de forma extremamente específica a posição de cada elétron que forma um átomo e permite que ele esteja em seu estado fundamental.

Mas o que é o estado fundamental? O estado fundamental de um átomo representa aquele estado em que todos os seus elétrons estão distribuídos nas camadas mais baixas de energia disponíveis. Também chamado de estado estacionário, o estado fundamental do átomo representa os elétrons em seu estado de energia mínima.

Um exemplo disso é a distribuição eletrônica do berílio. O berílio é um elemento que apresenta apenas 4 elétrons no total. Esses 4 elétrons são distribuídos em exatas duas camadas eletrônicas. Isso significa que a distribuição eletrônica do berílio pode ser representada por 2 – 2.

Conforme as camadas eletrônicas se afastam mais do núcleo, mais a energia dos elétrons presentes nelas é elevada. Sendo assim, é possível afirmar que as camadas da eletrosfera acabam representando exatamente os níveis de energia da eletrosfera.

Isso significa que as camadas eletrônicas K, L, M, N, O, P e Q acabam constituindo os primeiros, segundos, terceiros, quartos, quintos, sextos e sétimos níveis de energia da eletrosfera respectivamente e sem possibilidade de alteração.

Mas engana-se quem pensa que um número ilimitado de elétrons cabe dentro de cada camada de energia. Pelo contrário! Estudos e métodos experimentais conseguiram especificar a quantidade exata de elétrons que podem estar presente em cada nível de energia.

No primeiro nível de energia, representado pela letra K, apenas 2 elétrons podem ser comportados. No segundo nível de energia, chamado de L, 8 elétrons podem estar presentes. Já na terceira camada de energia, representada pela letra M, cabem 18 elétrons.

No quarto nível de energia, o nível M, e no quinto nível de energia, o nível O, 32 elétrons podem estar presentes. Já no sexto nível, representado pela letra P, cabem 18 elétrons. E, por fim, no sétimo e último nível de energia, o nível Q, apenas 2 elétrons são admitidos.

Em cada camada de energia, é possível distribuir os elétrons em subcamadas de energia. Essas subcamadas de energia também são representadas por letras do alfabeto e em ordem crescente de energia, sendo elas s, p, d e subcamada f. A quantidade máxima de elétrons que cada subcamada de energia suporta também é determinada de maneira experimental.

Conheça a representação gráfica

Como uma forma de facilitar a distribuição dos elétrons nas camadas eletrônicas de energia, um pesquisador e cientista chamado Linus Pauling acabou criando uma eficiente representação gráfica. Essa representação gráfica tornou mais fácil para as pessoas visualizarem a ordem crescente da energia, facilitando a distribuição eletrônica.

A apresentação gráfica dessa distribuição é chamada de Diagrama de Pauling, mas também é muito conhecida por Diagrama de Distribuição Eletrônica ou Diagrama dos Níveis Energéticos. Antes considerada difícil e complexa, a distribuição eletrônica se tornou mais fácil e prática após o surgimento e aplicação do Diagrama de Pauling.

Porém, antes de fazer a distribuição eletrônica do átomo utilizando o Diagrama de Pauling, a pessoa precisa saber exatamente qual é a quantidade máxima de elétrons que podem estar presentes em cada camada de energia e também em cada subcamada de energia.

No caso das subcamadas de energia, a quantidade máxima de elétrons corresponde a 2 elétrons na subcamada s, 6 elétrons na subcamada p, 10 elétrons na subcamada d e 14 elétrons na subcamada de energia f.

Nesse processo de acomodação dos elétrons, consideramos a camada de valência como a camada de energia que consegue acomodar o maior número de elétrons com energia elevada. São esses elétrons os responsáveis pela realização das mais diversas reações químicas. Isso acontece porque os elétrons presentes na camada de valência são instáveis e procuram outros elétrons para se estabilizarem.

Taiga (Floresta de Coníferas ou Floresta Boreal)

Também chamada de floresta boreal, a taiga é um bioma de árvores coníferas predominantemente presentes no hemisfério norte como Canadá, Alasca, Groenlândia, Noruega, Finlândia, Suécia, Sibéria e até mesmo no Japão. Há uma abundância de pinheiros, abetos, larícios e espruces, típicas desse tipo de vegetação e que, como principais características, são altas e retas.

Taiga (Floresta de Coníferas ou Floresta Boreal)

Em geral essas árvores possuem folhas mais finas, que vão afunilando na copa, criando uma espécie de agulha. Por serem sempre de clima frio, são revestidas com uma substância semelhante a uma resina, que impede o acúmulo de neve evitando que congelem. A falta de variedade também se reflete em sua fauna, povoada por raposas, ursos, esquilos, alces e linces, que conseguem conviver bem em ambientes temperados.

A vegetação da taiga

Poucos são os biomas capazes de sobreviver a um ambiente muito frio e polar. Típico de elevadas latitudes, a taiga é comumente confundida com a tundra, mas sua principal diferença é que o solo descongela no verão, fazendo com que os animais realizem uma migração e as florestas possam se formar de maneira aciculifoliada. O inverno tem temperatura baixíssima, que pode ficar abaixo de -50ºC. O verão é mais curto que o normal, apresentando temperatura média de 20ºC e degelo, que forma lagos e pântanos típicos.

Raramente chove numa floresta boreal, fazendo com que o solo seja bastante pobre em nutrientes e só permita o desenvolvimento de plantas que sobrevivem a situações precárias. A taiga circula regiões ainda mais geladas, que à medida que vai avançando, vai se transformando em tundra. Na zona de transição as árvores coníferas vão ficando cada vez mais raras e dando lugar a gramíneas e arbustos.

A tundra fica localizada apenas no extremo norte, com as mais baixas temperaturas do planeta e não há árvores de grande porte, apenas arbustos que conseguem se manter em solos congelados.

Considerada o maior bioma do mundo, a taiga é designada como biogeográfica subártica setentrional e seca, sem grande variedade de vegetação. É propícia aos mais variados tipos de pinheiros, larícios, abetos e espruces, chamadas de árvores coníferas por possuem um formato de cone. Esse tipo de árvore tem uma composição que permite sobreviver ao clima muito frio. Suas folhas aciculares possuem uma película semelhante a uma parafina ou sebo, permitindo que mantenham sua temperatura e umidade interna mesmo em altas temperaturas.

A maior parte das árvores desse tipo de vegetação mantêm suas folhas por todo o ano, para aproveitar o máximo de luz solar, para realizar sua fotossíntese. Sem a necessidade de produzir novas folhas como ocorre com os outros tipos de árvores, não há gasto de energia, que pode se manter acumulada para os momentos mais críticos. Porém, há alguns tipos de árvores coníferas como os larícios europeus, cujas folhas são caducifólios e podem cair no inverno para não perder a água que conseguem acumular.

Toda a estrutura das árvores coníferas se justifica para a taiga. Seu curioso formato em cone é uma forma de evitar o acúmulo de neve em sua copa, que poderia danificar toda sua estrutura com o peso. O revestimento das folhas também mantém essa proteção, evitando que o frio intenso resseque o tecido; seu tamanho mais reduzido impede a perda de água, já que quanto menos espaço para transpirar, maior será sua hidratação.

Mas a floresta boreal tem uma flora pouco diversificada e que apresenta uma variedade bastante reduzida quando comparada a um bioma tropical. Por se desenvolverem em baixas temperaturas, permanecer em locais com água congelada e se posicionarem uma do lado da outra como um verdadeiro cinturão verde, acabam impedindo que a luz solar chegue ao solo e torna precária a quantidade e qualidade de vegetação rasteira. Os musgos são mais comuns, assim como pequenos arbustos e líquens.

Características da fauna da taiga

Por possuir uma vegetação bastante peculiar, a floresta boreal também atrai uma fauna específica e que não é encontrada em nenhum outro tipo de vegetação. Os mamíferos são predominantes e incluem espécies raras como o urso polar, que já é considerado em extinção.

Muitos animais, principalmente as aves, migram para outras regiões quando a temperatura começa a baixar, mas há os que estão preparados e permanecem em seu habitat.

Com a altura de um cavalo e chifres achatados, os alces são os maiores cervídeos do planeta e são encontrados facilmente numa taiga, assim como os veados e renas. Os esquilos, lebres, linces, tigres, martas e coelhos também são muito comuns nesse ambiente. Dentre as aves estão os falcões e pica-paus, e nos mares o salmão e atum, peixes de águas muito geladas.

Durante o degelo dos curtos períodos de verão, as aves são atraídas pelo excesso de insetos que surgem nos pântanos formados, ajudando a manter o ciclo de vida da fauna da região. No inverno, alguns dos animais que ficam na floresta boreal hibernam, enquanto outros continuam sob a proteção de sua própria composição física.

Como as condições climáticas de boa parte das taigas são impróprias ao homem pelas temperaturas baixíssimas, há muitos espaços intocáveis e que jamais foram explorados. Mas as partes mais acessíveis acabam sendo devastadas pelo alto valor comercial de suas árvores e pela mineração.

Ebulioscopia – Química

Também chamada de ebuliometria, a ebulioscopia nada mais é que uma propriedade coligativa que investiga e realiza o estudo de toda elevação de temperatura que causa a ebulição de algum tipo de solvente presente em uma solução.

Ebulioscopia - Química

Mas o que é uma propriedade coligativa? Como ela é dividida? Uma propriedade coligativa representa de forma específica a particularidade de uma solução que depende diretamente da quantidade de partículas dispersas, mas que, ao mesmo tempo, não depende da natureza ou origem das partículas do soluto.

Todos os solutos podem ser divididos entre solutos iônicos e solutos moleculares. Os primeiros correspondem aos que são constituídos por ligações iônicas, como é o caso do sal de cozinha, por exemplo. Nessas situações, acontece a separação dos íons, que acabam ficando totalmente dispersos na solução.

Já os chamados solutos moleculares são aquelas substâncias que possuem ligações covalentes. No caso desses, não existe nenhuma dissociação dos íons, acontecendo apenas a disposição isolada das moléculas na solução. Um exemplo clássico e muito conhecido de soluto molecular é a sacarose, o açúcar.

As propriedades coligativas podem ser divididas entre a ebulioscopia, a tonoscopia e a crioscopia. A tonoscopia acontece quando o soluto causa o caimento da pressão máxima existente no vapor do solvente. Já a crioscopia consiste na elevação do ponto de ebulição da água, causando a redução do seu ponto de congelamento ou solidificação.

Um pouco mais sobre a ebulioscopia

A ebulioscopia surgiu por conta da realização de uma análise de alguns tipos de soluções que eram misturadas com alguns líquidos puros. Quando o pesquisador analisa o líquido puro e um tipo de solução presente nesse mesmo líquido, é possível que ele perceba todas as mudanças de comportamento do líquido puro, causadas principalmente pela presença de um soluto.

Quando isso acontece, podemos afirmar que ocorreu uma mudança nas propriedades coligativas do líquido puro. Essa situação pode ser observada quando o estudo utilizado é a ebulioscopia, desde que os dados sejam retirados e analisados de maneira correta.

Dito isso, podemos perceber que os solventes possuem como característica a capacidade de alterar todo o comportamento de um líquido. Ou seja, o solvente acaba sendo responsável por tornar mais elevado o ponto de ebulição do líquido estudado.

Como sabemos, a ebulioscopia observa o aumento da temperatura de ebulição de um solvente presente em uma solução. Porém, para que o fenômeno da ebulição aconteça, é necessário que a substância deixe o estado líquido e passe para o estado gasoso. No caso da água, o ponto de ebulição só é alcançado quando ela chega em 100°C.

E como podemos fazer a ebulição de um líquido? Para que uma substância líquida atinja seu ponto de ebulição, é preciso elevar a sua temperatura e aquecê-la até chegar ao ponto em que a pressão do vapor é exatamente igual à pressão atmosférica. Nos casos em que é possível identificar a presença de partículas insolúveis no solvente, esse processo de ebulição acaba se tornando mais difícil e só pode ser explicado por meio da ebulioscopia.

A fórmula utilizada pela ebulioscopia para calcular esse fenômeno pode ser representada por te= te2 – te, em que te representa a temperatura de ebulição da solução e te2 a temperatura de ebulição do solvente utilizado.

Em situações em que o ponto de ebulição de uma substância líquida acaba sendo elevado por meio da atuação direta de um soluto considerado não volátil, o valor encontrado por essa fórmula se torna diretamente proporcional à quantidade de mols presentes na solução. A Lei de Raoult é o que explica a relação presente entre a concentração de uma solução e o efeito ebulioscópico.

Conheça alguns exemplos aplicáveis da ebulioscopia

Um dos mais famosos exemplos de ebulioscopia acontece durante o preparo de uma das bebidas mais ingeridas em nosso dia a dia, o café. Ao prepararmos o café, acabamos colocando açúcar diretamente na água que estava iniciando seu processo de ebulição.

Nessa situação, todos os cristais presentes no açúcar acabam se tornando partículas que retardam todo o processo de ebulição da água, fazendo com que o líquido demore mais tempo para finalmente alcançar seu ponto de ebulição. Isso acontece antes mesmo dos cristais de açúcar serem dissolvidos pelo calor presente na mistura.

Outro exemplo desse processo de ebulioscopia também pode ser observado quando observamos uma substância líquida em contato com o sal, mais especificamente ao misturarmos sal na água. Quando fazemos isso, acabamos aumentando o ponto de ebulição da água.

Mas o que esse aumento representa? Isso significa que a água vai demorar muito mais tempo para alcançar a fervura. Nesse caso, o que acontece é que, quando um soluto não volátil é dissolvido em uma substância líquida, o nível da temperatura de ebulição daquela solução se torna mais elevada e superior ao valor da temperatura que podemos encontrar na água pura. Esse processo também é conhecido como efeito ebulioscópico.