O artigo de título: Ilya Prigogine: uma contribuição à filosofia da ciência se encontra no site http://www.scielo.br/scielo.php?script=sci_arttext&pid=S1806-11172008000200009 e apenas um trecho, que permite compreender a ideia geral que será tratada no texto, será transcrito aqui.
Neusa Teresinha Massoni1
Instituto de Física, Universidade Federal do Rio Grande do Sul, Porto Alegre, RS, Brasil
RESUMO
Este trabalho tem o objetivo de trazer para o debate epistemológico algumas das principais idéias filosóficas de Ilya Prigogine enquanto cientista e um pequeno resumo de suas teorias científicas enquanto filósofo. Queremos crer que ele próprio, um eminente físico-químico ganhador do Prêmio Nobel de Química em 1977, não se dizia filósofo da ciência. Mas sua inovadora interpretação do tempo, do caos e da instabilidade, fontes de desordem e também de ordem, nos proporciona uma excursão por uma ciência em evolução, nas palavras de Prigogine, e não deixa dúvidas de suas profundas contribuições para uma renovada visão de inter-relação entre ciência e filosofia. As idéias aqui sumarizadas, no entanto, não devem ser tomadas como generalizações indevidas, pois as pesquisas nessa área ainda estão em curso, mas tão somente como uma instigante contribuição às visões epistemológicas contemporâneas.
1. Introdução
Este pretende ser apenas um texto introdutório às idéias epistemológicas de Ilya Prigogine (1917-2003). Prigogine nasceu em Moscou e faleceu em Bruxelas, com 86 anos de idade. Estudou física e química na Universidade Livre de Bruxelas, Bélgica, para onde seus pais se mudaram quando ele tinha 4 anos, e obteve nacionalidade belga. Ganhou o prêmio Nobel de Química em 1977 por suas contribuições à termodinâmica de não-equilíbrio e pela teoria das estruturas dissipativas. Foi diretor dos Institutos Solvay de Física e Química, em Bruxelas, e diretor do Centro Ilya Prigogine de Mecânica Estatística, Termodinâmica e Sistemas Complexos de Austin, Texas. Suas idéias inovadoras nos levam a repensar o papel do nosso tempo, a nossa visão sobre o conhecimento e, particularmente, sobre as leis fundamentais da física que buscam explicar o universo. Seu enfoque centra-se em que sistemas instáveis (de não-equilíbrio) estão na base da descrição microscópica do universo e, com isso, as leis da dinâmica precisam ser formuladas em nível estatístico, aonde a irreversibilidade e a seta do tempo surgem como elementos fundamentais e indissociáveis dos sistemas instáveis.
domingo, 29 de maio de 2011
segunda-feira, 23 de maio de 2011
Um dos debates atuais dentro da mudança de paradigmas na arte: Pix(ch)ação é arte?
Esse texto foi publicado no portal do Ministério da Cultura (http://www.cultura.gov.br/site/2010/04/19/bienal-se-rende-a-pichacao/) antes do início da 29ª Bienal de Arte que ocorreu ano passado em São Paulo e traz uma idéia geral da polêmica sobre a discussão acerca da pichação.
Bienal se rende à pichação
Jornal do Commercio (PE), Caderno C, por Carolina Leão, em 17/04/2010
Bienal de São Paulo abre espaço – agora de forma consentida – para a pichação dividindo a opinião pública e apimentando a discussão sobre o conceito de arte
Carolina Leão cleao@jc.com.br
Especial para o JC
Desde que as vanguardas passaram a ter sua potência transgressora assimilada às academias tradicionais, um fantasma começou a rondar a discussão sobre arte. Toda subversão poderá ser domesticada pelas instituições oficiais? O debate é antigo, mas não se esgota. Na última quinta-feira o curador Moacir dos Anjos apimentou a questão ao anunciar a participação de pichadores na 29ª Bienal de São Paulo, que acontece em setembro na capital paulista. O convite surgiu após encontros realizados entre a comissão crítica do órgão e artistas de rua, responsáveis, em 2008, por uma das maiores polêmicas da história da instituição – quando o segundo andar do pavilhão da mostra, apelidada de Bienal do Vazio, foi invadido e pichado. O anúncio veio na mesma semana em que a Prefeitura do Rio de Janeiro confirmou pichações na estátua do Cristo Redentor.
A notícia mais uma vez dividiu a opinião pública e traz questionamentos sobre o conceito de arte e sua dimensão política – este último ponto é o tom da próxima Bienal (que vem com a missão de recuperar o status crítico de sua trajetória). Em outubro de 2008 a invasão do pavilhão vazio da Bienal virou caso de polícia quando 50 pichadores driblaram a segurança e, entre socos e pontapés, picharam vidros e paredes. O curador Ivo Mesquita condenou o ato e tratou os invasores como vândalos. Artistas e intelectuais saíram em defesa dos pichadores, que tiveram apoio ainda de membros de organizações de direitos humanos. O ministro da Cultura, Juca Ferreira, também saiu em defesa.
A teórica da arte Maria do Carmo Nino, da Universidade Federal de Pernambuco (UFPE), lembra de um ponto importante: só há pichação se houver proibição. A presença de pichadores na Bienal não será pela performance dos artistas de rua, no entanto.
A mostra investe no debate político exibindo vídeos, fotos e discussões com pesquisadores e especialistas. “Trazer a pichação para a Bienal seria subverter sua dimensão contestatória. O que vai haver é uma ilustração do picho”, coloca Maria do Carmo. A pesquisadora parabeniza a iniciativa da curadoria que, segundo ela, traz a questão política como foco, mas lembra: “Há um risco grande. Ela se arrisca a passar pelo julgamento sumário, que pode colocá-la como legitimador do picho”, argumenta.
O sociólogo Paulo Marcondes Soares, também professor da UFPE, lembra que quem legitima o que é arte são as instituições políticas e culturais, a exemplo das academias, universidades e grandes galerias. Associada à marginalidade e ao vandalismo, envolvendo questionamentos sobre cidadania e inclusão social, a pichação vem aos poucos passando por um processo de “aceitamento” como arte, com letra minúscula, sempre.
O pernambucano Galo de Souza, artista de rua, é um dos que reivindicam o status da pichação como expressão estética. “A pichação no BRASIL é uma referência global. Quase todos os países utilizam a fonte de São Paulo. Quem estuda design sabe que sua iconografia é muito forte”, defende. Para ele, no entanto, a cultura da pichação é generalizada como discussão a ser colocada apenas como um problema social. “É uma arte tanto quanto outra”, diz. Galo afirma que a pichação não precisa da Bienal. “Mas é importante que ela (a arte de rua) reflita sobre sua história.”
Marcondes compartilha da opinião do grafiteiro. “É um debate que a esfera artística não reconhece. E isso é também uma questão política. O papel do curador é totalmente coerente. Nos leva a pensar e refletir.” O sociólogo aponta ainda para a ambivalência do tema quando se analisa a recuperação domesticada de intervenções urbanas como o grafite, linguagem para onde vêm se deslocando antigos pichadores “É uma rebeldia tolerada, consentida”, coloca.
Essa contradição, explica o curador Moacir dos Anjos, será um problema que a 29ª Bienal terá que lidar. “Pois, se o que faz o picho ser arte é justamente o fato dele desconcertar nossos sentidos e nos fazer admitir, mesmo quando estamos no conforto de nossos carros ou na janela de um apartamento alto, que existem outros modos de entender e de inventar o mundo. O que acontece se o picho é trazido para o ambiente controlado, conhecido e decodificado do chamado campo da arte? Ele mantém sua potência ou se torna mera ilustração ou lembrança de si mesma?”, questiona Moacir enfatizando a grafia do picho com x,
tal como é utilizado na gíria popular.
Carolina Leão cleao@jc.com.br
Especial para o JC
Desde que as vanguardas passaram a ter sua potência transgressora assimilada às academias tradicionais, um fantasma começou a rondar a discussão sobre arte. Toda subversão poderá ser domesticada pelas instituições oficiais? O debate é antigo, mas não se esgota. Na última quinta-feira o curador Moacir dos Anjos apimentou a questão ao anunciar a participação de pichadores na 29ª Bienal de São Paulo, que acontece em setembro na capital paulista. O convite surgiu após encontros realizados entre a comissão crítica do órgão e artistas de rua, responsáveis, em 2008, por uma das maiores polêmicas da história da instituição – quando o segundo andar do pavilhão da mostra, apelidada de Bienal do Vazio, foi invadido e pichado. O anúncio veio na mesma semana em que a Prefeitura do Rio de Janeiro confirmou pichações na estátua do Cristo Redentor.
A notícia mais uma vez dividiu a opinião pública e traz questionamentos sobre o conceito de arte e sua dimensão política – este último ponto é o tom da próxima Bienal (que vem com a missão de recuperar o status crítico de sua trajetória). Em outubro de 2008 a invasão do pavilhão vazio da Bienal virou caso de polícia quando 50 pichadores driblaram a segurança e, entre socos e pontapés, picharam vidros e paredes. O curador Ivo Mesquita condenou o ato e tratou os invasores como vândalos. Artistas e intelectuais saíram em defesa dos pichadores, que tiveram apoio ainda de membros de organizações de direitos humanos. O ministro da Cultura, Juca Ferreira, também saiu em defesa.
A teórica da arte Maria do Carmo Nino, da Universidade Federal de Pernambuco (UFPE), lembra de um ponto importante: só há pichação se houver proibição. A presença de pichadores na Bienal não será pela performance dos artistas de rua, no entanto.
A mostra investe no debate político exibindo vídeos, fotos e discussões com pesquisadores e especialistas. “Trazer a pichação para a Bienal seria subverter sua dimensão contestatória. O que vai haver é uma ilustração do picho”, coloca Maria do Carmo. A pesquisadora parabeniza a iniciativa da curadoria que, segundo ela, traz a questão política como foco, mas lembra: “Há um risco grande. Ela se arrisca a passar pelo julgamento sumário, que pode colocá-la como legitimador do picho”, argumenta.
O sociólogo Paulo Marcondes Soares, também professor da UFPE, lembra que quem legitima o que é arte são as instituições políticas e culturais, a exemplo das academias, universidades e grandes galerias. Associada à marginalidade e ao vandalismo, envolvendo questionamentos sobre cidadania e inclusão social, a pichação vem aos poucos passando por um processo de “aceitamento” como arte, com letra minúscula, sempre.
O pernambucano Galo de Souza, artista de rua, é um dos que reivindicam o status da pichação como expressão estética. “A pichação no BRASIL é uma referência global. Quase todos os países utilizam a fonte de São Paulo. Quem estuda design sabe que sua iconografia é muito forte”, defende. Para ele, no entanto, a cultura da pichação é generalizada como discussão a ser colocada apenas como um problema social. “É uma arte tanto quanto outra”, diz. Galo afirma que a pichação não precisa da Bienal. “Mas é importante que ela (a arte de rua) reflita sobre sua história.”
Marcondes compartilha da opinião do grafiteiro. “É um debate que a esfera artística não reconhece. E isso é também uma questão política. O papel do curador é totalmente coerente. Nos leva a pensar e refletir.” O sociólogo aponta ainda para a ambivalência do tema quando se analisa a recuperação domesticada de intervenções urbanas como o grafite, linguagem para onde vêm se deslocando antigos pichadores “É uma rebeldia tolerada, consentida”, coloca.
Essa contradição, explica o curador Moacir dos Anjos, será um problema que a 29ª Bienal terá que lidar. “Pois, se o que faz o picho ser arte é justamente o fato dele desconcertar nossos sentidos e nos fazer admitir, mesmo quando estamos no conforto de nossos carros ou na janela de um apartamento alto, que existem outros modos de entender e de inventar o mundo. O que acontece se o picho é trazido para o ambiente controlado, conhecido e decodificado do chamado campo da arte? Ele mantém sua potência ou se torna mera ilustração ou lembrança de si mesma?”, questiona Moacir enfatizando a grafia do picho com x,
tal como é utilizado na gíria popular.
domingo, 22 de maio de 2011
Um poquinho de Salvador Dali....e a mecânica quântica
Essa postagem traz um pouco do que foi o nosso seminário sobre a obra de Salvador Dalí em sua fase denominada Misticismo-Nuclear, com referências claras a temas científicos e religiosos. Aqui faremos uma relação entre a obra de Dalí A Desmaterialização do Nariz de Nero e a Mecânica Quântica. O material utilizado no seminário foi retirado de: COSTA, R.R.D. da, NASCIMENTO, R.S. do, GERMANO, M.G. 2007. “Salvador Dalí e a mecânica quântica”, in: Física na Escola, v.8, n.2 (disponível em http://www.sbfisica.org.br/fne/Vol8/Num2/v08n02a06.pdf).
![]() |
| Figura: A Desmaterialização do Nariz de Nero. Salvador Dalí, 1947. Óleo sobre tela,76,4×46 cm. Fundação Gala-SalvadorDalí, Figueras. |
Na visão de Dalí, a romã representa o universo atômico, ou seja, o próprio átomo. As sementes são vistas nessa representação como elétrons em constante movimento dentro do átomo. (...) A estrutura de concreto que envolve a romã representando o domínio do átomo pela humanidade, fato demonstrado pela construção e utilização da bomba nuclear. Sobre esta estrutura, um busto de Nero encontra-se dividido em quatro partes e sobre ele um arco, todos suspensos no ar, representando as forças atômicas que mantêm o equilíbrio entre seus constituintes e a desintegração da realidade física em vários componentes.
segunda-feira, 16 de maio de 2011
"2001:Odisséia no Espaço" - Stanley Kubrick
O filme “2001: Odisséia no Espaço”, de Stanley Kubrick traz a evolução e obtenção tecnológica da humanidade. E, assim como tantos outros e como o sociólogo Boaventura, faz uma previsão, de acordo com sua época, para um possível desfecho das tendências do momento. Exponho aqui o texto sobre esta obra, presente na Filmografia Completa de Stanley Kubrick, escrito por Paul Duncan.
“Em Fevereiro de 1964, recomendaram-lhe [à Kubrick] Arthur C. Clarke, e dois meses mais tarde conheceram-se quando Clarke foi a Nova Iorque para editar um livro. Kubrick sentiu-se impressionado pelo romance de Clarke Childhood’s End, que é sobre uma raça superior de seres alienígenas que ajudavam a humanidade a destruir o seu antigo eu, renascendo esta um degrau acima na escala da evolução. Os direitos de adaptação do romance ao cinema foram adquiridos, mas a idéia do romance não abandonou Kubrick e Clarke enquanto imaginavam o seu filme. Clarke sugeriu que o seu conto de 1948, The Sentinel, poderia ser um bom ponto de partida – é encontrado um tetraedro na Lua, o que alerta os alienígenas para a presença da raça humana quando esta chega à Lua. De Maio ao Natal de 1964, Clarke escreveu o romance 2001: Odisséia no Espaço, como se veio a chamar, no Chelsea Hotel (lar de William S. Borroughs e de outros autores do movimento beatnik) enquanto Kubrick trabalhava no argumento – trabalhavam as idéias um do outro para criar um todo coeso.
Finalmente, a história é reunida para dar origem a um poema visual sobre a evolução do Homem. Os primeiros símios juntavam-se para comer e beber, bem como para dormir juntos. Forçados por outros símios a abandonar o ponto de água, torna-se-lhes difícil sobreviver. Aparece o monólito. Um símio (o Observador da Lua) descobre como utilizar os ossos como ferramentas/armas. Apreendem a caçar e a comer os animais ao lado dos quais comiam. Os símios reconquistam o ponto de água aos seus rivais e espancam um deles até a morte.
Numa sociedade futura, observamos as pessoas a comer e a beber em naves espaciais. O monólito aparece na Lua. Posteriormente, Americanos e Russos cooperam numa missão tripulada a Júpiter para descobrir a fonte de um sinal do monólito. Na Discovery I, Bowman e Poole comem, bebem, jogam xadrez e desenham. O seu inimigo é o supercomputador conhecido como HAL, o qual governa a nave, mata Poole e tira a Bawman o <<ponto de água>>. Bowman retira a inteligência a HAL (principalmente, destruindo-lhe o cérebro, da mesma maneira que o Observador da Lua esmaga a cabeça do símio inimigo). O monólito aparece no espaço e Bowman atravessa um star gate, testemunhando as maravilhas do Universo. Num cenário familiar, uma sala do século XVIII, ele envelhece e tranforma-se fisicamente num Feto Astral; regressa então à Terra levando consigo o seu próprio ambiente.
Muitas outras sequências foram filmadas, como cenas da vida doméstica dos astronautas, a qual fazia lembrar a vida dos símios, mas Kubrick foi-as cortando pouco a pouco. Foram realizadas entrevistas com peritos espaciais, teólogos, biólogos, químicos e astrônomos para fazer um prólogo de dez minutos. Após a primeira exibição para os executivos da MGM que financiavam o filme, Kubrick decidiu cortar o prólogo. O diálogo a explicar a razão pela qual o computador inteligente HAL teve um colapso nervoso foi cortado. Quanto mais cortes Kubrick fazia, menos diálogos restavam. Kubrick disse que <<Estranho Amor era um filme no qual muito do impacte dependia dos diálogos, dos modos de expressão, dos eufemismos empregues. Conseqüentemente, é um filme que perde muito com a tradução ou a dobragem. 2001, por outro lado, é essencialmente uma experiência visual e não verbal. Evita a verbalização intelectual e atinge o subconsciente dos espectadores de uma forma essencialmente poética e filosófica. O filme torna-se assim uma experiência subjectiva que atinge o espectador a um nível de consciência muito interior, tal como a música ou a pintura o fazem.>> [Gelmis, Joseph: ‘Na Interview with Stanley Kubrick’. The Film Director as Superstar, Doubleday, 1970]. Torna também o filme mais ambíguo. <<Sempre me pareceu que a artística e verdadeira ambigüidade – se é que pode usar-se este paradoxo – é a mais perfeita forma de expressão. Ninguém gosta que lhe digam nada. Tomemos como exemplo Dostoievski. É extremamente complicado dizer o que sentia por cada uma das suas personagens. Diria que a ambigüidade é o produto final quando se evita a superficialidade e as verdades evidentes>>.
Uma das <<verdades evidentes>> a que Kubrick poderia estar a referir-se era o final original, no qual o Feto Astral regressa à Terra e destrói o anel de bombas nucleares que rodeia o planeta. Embora ele não seja tornado óbvio na famosa transição em que o símio atira o seu osso/arma ao ar, Kubrick sobrepõe-lhe a imagem de uma bomba nuclear em órbita. Após o aviso contra o Armaguedão nuclear no Dr. Estranho Amor, Kubrick não queria repetir-se no 2001, e por isso o final foi alterado para o mais ambíguo, satisfatório e enigmático olhar do Feto Astral. No início e no final do filme, uma força exterior desencadeia a subida de um degrau na escala da evolução. O Homem continua a matar para proteger o seu território e poder sobreviver. A questão é: mudará alguma coisa a sua evolução para Feto Astral ou irá a natureza do Homem continuar igual? São mais as questões que o filme levanta que aquelas a que responde.
O modo como Kubrick reduziu o 2001 aos seus elementos mais importantes era indicativo do seu método de arranjar histórias. Ao longo do anos Kubrick adaptou tantos livros ao cinema que percebeu que tudo o que precisava era de <<6 a 8 unidades fundamentais>>, como disse mais tarde a Brian Aldiss. Uma unidade fundamental é um ponto-chave que não pode ser reduzido. Quando esses pontos-chave se juntam, formam uma narrativa que contém uma mistura equilibrada de todos os temas, imagens e personagens. Como se pode ver no Dr. Estranho Amor, o qual tem menos de vinte cenas, e no Lolita, estas unidades fundamentais estavam já a ser aperfeiçoadas por Kubrick.
Embora o subtexto do 2001 deixasse espaço à interpretação, a dedicação de Kubrick ao rigor e ao pormenor, combinada com a sua visão cinematográfica, significava que ele procurava todos os aspectos plausíveis do futuro para que o filme parecesse real. A produção, que se mudou de Nova Iorque para os estúdios da MGM em Borehamwood, no norte de Londres, em Junho de 1965, tinha de se manter a par dos últimos desenvolvimentos da corrida espacial – o russo Andrei Leonov foi o primeiro homem a andar no espaço a 18 de Março de 1965, o Ranger 9 tirou pela primeira vez milhares de fotografias pormenorizadas à Lua e o americano Ed White equiparou-se a Lenov com o seu passeio espacial a 3 de Junho. A equipe de produção teve a cooperação da NASA e das outras empresas que faziam as naves espaciais para a alunagem e visitaram-nas para perceberem como eram as naves e como funcionavam.
No entanto, o maior desafio que Kubrick enfrentou foi ter de encontratr maneira de representar coisas que nunca tinham sido vistas. Para o fazer, reuniu uma equipe incrível de feitos especiais. Quando Clarke e Kubrick visitaram a New York World’s Fair em 1964, Kubrick ficou tão impressionado com o documentário da NASA To The Moon and Beyond que pediu à equipe de produção para realizar algum trabalho para ele. Por fim, Com Pederson e Douglas Trumbull foram para Londres com a equipe de produção, tendo feito posteriormente uma carreira brilhante em filmes como O Cosmonauta Perdido (1971), Encontros Imediatos do 3°Grau (1977) e Blade Runner (1982.
Kubrick gostou também da reprodução das nebulosas e dos agrupamentos de estrelas num documentário da National Film Board of Canada chamado Universe (1959), e por isso contratou a produção do mesmo para o 2001. Contratou WallyWeevers, o homem dos efeitos especiais do Dr. Estranho Amor, que produziu os melhores efeitos da sua carreira, e pediu ao veterano Tom Howard, que trabalhava em efeitos visuais há mais de vinte anos, para repetir a magia que criara para o O Ladrão de Bagdad (1940), Blithe Spirit (1945) e muitos outros filmes de ficção científica e de fantasia de George Pal. Ao todo, eram 25 pessoas para fazer os efeitos especiais, 35 projectistas e 70 outras pessoas da equipa a trabalhar nesta gigantesca pordução.
As filmagens iniciaram-se a 29 de Dezembro de 1965 com a escavação do monólito na Lua. A partir de 8 de Janeiro de 1966, a filmagem das seqüências da estação espacial e da base lunar demoraram um mês. Foram depois filmadas as cenas no interior da Discovery I com os actores Gary Lockwood (Poole) e Keir Dullea (Bowman) até o final do mês de Agosto. Num filme cheio de efeitos visuais espetaculares, a parte do cenário que requeria o concurso da engenharia era a sala do controlo da Discovery para a qual a Vickers Engeneering construiu um simulador espacial que custou 750 000 dólares. Mais alta que uma casa, com seis metros de largura e pesando 30 toneladas, a roda firava para dar o efeito de uma força centrífuga dentro da Discovery. A parte exterior da roda era coberta com holofotes, equipamento eléctrico e projectores para as imagens de computador que faziam um calor sufocante. Havia por isso tubos enormes que sugavam o ar quente e bombeavam ar fresco para dentro do cenário giratório.
Kubrick via as filmagens dentro de uma gaiola de malha, onde um equipamento de vídeo mostrava imagens do que se passava dentro da roda. O efeito de desorientação da roda dava ao espectador uma sensação de espanto sobre as maravilhas que o homem podia criar. Era um forte contraste com a seqüência seguinte, que é essencialmente fotográfica. Depois de uma pequena equipa ter fotografado o deserto da Namíbia durante alguns meses no início de 1967, as imagens foram prejectadas numa tela por trás dos actores que representavam os símios. (Talvez não seja por coincidência que a Discovery I se parece muito com o osso utilizado como ferramenta e arma pelos símios).
Embora as cenas com os símios tivessem sido terminadas em meados de 1967, a equipa de efeitos especiais continuou o seu trabalho complexo e laborioso até ao final de 1967, trabalhando por vezes 24 horas por dia. No final, foram tiradas mais de 16 000 fotografis para criar as 205 tomadas de vista de efeitos especiais que dariam a força visual ao filme. Foi-lhes dada uma dimensão emocional através de uma grande variedade de músicas de Aram Khachaturyan, Richard Strauss e Johann Strauss. A voz agélica mas ameaçadora da música de György Ligeti acompanhava o <<nascimento>> do monólito.
Para Kubrick, o som era muito importante, utilizando-o para criar uma paisagem auditiva. O espaço é silencioso, hostil, misterioso, enquanto dentro da Discovery ouvimos os sons calorosos, reconfortantes e neutrais do HAL 9000, o computador de bordo. Kubrick experimentou usar os actores Martim Balsam (demasiado americano) e Nigel Davenport (demasiado britânico) antes de se decidir pelo canadiano Douglas Rain, que fazia a narração do Universe.
Depois de uma antestreia do filme para os executivos da MGM, Kubrick fez muitas alterações e efectuou ainda mais cortes depois da estréia – foram cortados 20 minutos e acrescentadas legendas para definir o tempo e o espaço. Muitos críticos e cinéfilos ficaram perplexos com o filme, e um mês depois de a palavra se ter espalhado, este atraiu grandes audiências. Embora o 2001 tenha custado 10,5 milhões de dólares, fez um lucro de 31 milhôes de dólares por todo o mundo até o final de 1972Ganhou o Óscar para os Melhores Efeitos Especiais, o único Óscar que Stanley Kubrick recebey. O filme tem desde então assumido um estatuto mítico e o seu poder continua intacto com a passagem do tempo.”http://www.youtube.com/watch?v=E8TABIFAN4o&feature=related
sábado, 14 de maio de 2011
Mudança de paradigmas na física
No livro “O fim da física”, 1ª Edição, 1994, tradução de José Gabriel Rosa, Stephen Hauking apresenta as mudanças de paradigma na física, as teorias que foram surgindo conforme apareciam problemas nas anteriores e especula qual a tendência na física, o que será o paradigma emergente.
Começa desde antes da ciência lembrando que havia uma “necessidade de uma ‘causa primeira’ para explicar a criação do universo [que] foi usada como argumento para provar a existência de Deus”.Por outro lado “Os filósofos gregos, como Platão e Aristóteles [...] não gostavam da idéia de uma intervenção divina directa nos assuntos do mundo, preferindo acreditar que o universo sempre tinha existido e sempre iria existir.” Trata, então, da questão entre Igreja e Copérnico, Galileu, que afirmaram ser o Sol o centro da galáxia, não mais a Terra, como até então se acreditava. Nesse âmbito, “uma vez abandonada a crença de que a Terra estava no centro do universo, foi natural postular que as outras estrelas eram outros sóis como o nosso e que estavam distribuídas de uma maneira mais ou menos uniforme num universo infinito”.
“Isto, contudo, levantava um problema: de acordo com a teoria da gravidade de Newton, publicada em 1687, cada estrela devia ser atraída em direção a todas as outras estrelas no universo.” Ou seja, surgiu um obstáculo à idéia de universo infinito e imutável que havia até o momento. Outro obstáculo a essa teoria foi “notado pela primeira vez pelo astrônomo suíço J. L. de Cheseaux e posteriormente desenvolvido por H. Olbers. Se o espaço está povoado uniformemente por estrelas com a mesma luminosidade média, um cálculo simples mostra que o fluxo total de luz estelar que chega a um certo ponto no universo é infinito!”
Mas, “Apesar destas e doutras dificuldades, quase toda a gente nos séculos XVIII e XIX acreditava que o universo era essencialmente imutável no tempo.” Mesmo em 1915, “quando Einstein formulou a sua teoria geral da relatividade, que modificou a teoria da gravidade de Newton para a tornar compatível com as descobertas sobre a propagação da luz”, essa crença persistia. “Um aspecto fundamental [e inovador] da teoria geral da relatividade de Einstein é que o espaço (rigorosamente, o espaço-tempo) pode ser curvo”. Porém o tempo “ainda era infinito neste modelo”.
Hauking afirma ainda que, “se Einstein tivesse ficado pela versão original da relatividade geral, sem a constante cosmológica [isto é, se Einstein tivesse apenas concluído a respeito das singularidades que transformam o tempo como conhecemos, sem considerar que o universo seria estável e imutável], podia ter previsto que o universo se deveria encontrar em expansão ou em colapso”. O que foi concluído por Slipher e Hubble quando “encontraram para as outras galáxias o mesmo padrão de comprimentos de onda, ou cores, que o das estrelas na nossa Galáxia, mas os padrões estavam todos deslocados para o comprimento de onda vermelho, menores, do espectro”, ou seja, a luz ou o som eram semelhantes ao que conhecemos por ondas e chegavam a nós vindos de outras galáxias com freqüência maior. O efeito Doppler explica essa questão, quando a fonte da onda está se movendo em relação a nós, há variação de sua freqüência/comprimento. No cotidiano percebemos o efeito Doppler quando um carro passar por nós, desde criança imitamos o som que se torna agudo quando o carro se aproxima e grave quando se afasta. E a “única explicação razoável era que as galáxias se estavam a afastar de nós”. Doravante a física concluiu que “o universo não era estático, como se tinha pensado até então, mas estava em expansão”. Com isso, com esse fato, a discussão muda completamente sobre se há um princípio e um fim do universo. “Não se trata somente de um (sic) questão metafísica, como no caso do universo estático [...] pode existir um princípio ou um fim físicos, bem reais, do nosso universo”.
Posteriormente, em 1922, Alexandre Friedmann partiu, em seus modelos e generalizações, da “hipótese de que o universo era semelhante em qualquer ponto do espaço e em qualquer direcção”. Seus três tipos de modelos são: “o universo expandir-se-á até um certo tamanho máximo, para depois se contrair”; “as galáxias afastam-se tão depressa que a gravidade nunca será capaz de as fazer para, expandindo-se o universo para sempre” e “as galáxias se afastam precisamente à taxa crítica de modo a evitar o recolapso”. Em 1965, em contribuição a tais proposições, “a melhor prova da uniformidade a grande escala veio da observação da radiação de fundo, de microondas [...] descoberta por Arno Penzias e Robert Wilson, dos Bell Telephone Laboratories”.
Argumentaríamos que, dentre os modelos de Friedmann, “poderíamos determinar qual o modelo que corresponde ao nosso universo comparando a taxa de expansão actual com a densidade de massa média que se verifica hoje. [...] Contudo, existem provas directas de que há mais massa que não podemos ver (este é o chamado problema da matéria escura)”.
“No modelo de Friedmann, em que o universo acaba por recolapsar, o espaço é finito, mas ilimitado, como no modelo estático de Einstein. [...] A expansão parte de um estado de densidade infinita, a chamada singularidade do big bang”. Neste “modelo que recolapsa, o universo acaba por voltar a uma singularidade – é o chamado ‘grande esmagamento’ (big crunch)”. Ou seja, “o princípio e o fim do tempo ocorrem por razões dinâmicas”, distinto da idéia de ‘causa primeira’ que precisaria de um início gerado por Deus, como mencionado no início do texto.
Mas “muitas pessoas não gostaram da idéia [...] porque isso lhes cheirava a intervenção divina” e tentaram evitar essa conclusão, uma das “tentativas foi o modelo do universo chamado de ‘estado estacionário’, proposto em 1948 por Herman Bondi, Thomas Gold e Fred Hoyle”: “à medida que as galáxias se afastam umas das outras, novas galáxias se formam no espaço intergaláctico a partir de matéria em ‘criação contínua’. [...] Infelizmente, as observações de fontes de rádio efectuadas em Cambridge, nos anos50 e princípios dos anos 60, por Martin Ryle e seus colaboradores mostraram que o número de fontes de rádio devia ter sido maior no passado, contradizendo o modelo do estado estacionário”.
“A descoberta da radiação de fundo de microondas por Penzias e Wilson [...] tem uma explicação natural no quadro da teoria do big bang. Segundo a teoria do estado estacionário, contudo, não houve, no passado, nenhuma fase quente e densa da qual essa radiação térmica pudesse provir. A presença de uma tal radiação não tinha qualquer explicação natural”. “Entre 1965 e 1970 foram demonstrados alguns teoremas que afirmavam que qualquer modelo do universo que estivesse de acordo com a relatividade geral, satisfizesse uma ou duas outras suposições razoáveis e contivesse tanta matéria quanta a que observamos no universo tem de possuir uma singularidade de big bang”. Assim, por definitivo concluiu-se que o universo não é estático, quebrou-se um paradigma físico e instaurou-se um novo.
“A teoria geral da relatividade de Einstein é provavelmente uma das duas maiores façanhas intelectuais do século XX. Revela-se, no entanto, incompleta, uma vez que é o que se chama uma teoria clássica, isto é, não incorpora o princípio da incerteza, contido na outra grande descoberta deste século – a mecânica quântica. O princípio da incerteza declara que certos pares de quantidade, como a posição e a velocidade duma partícula, não podem ser previstos com um grau de precisão arbitrariamente elevado. Quanto mais precisa for a previsão da posição duma partícula, menos precisa será a previsão da sua velocidade e vice-versa”. Dessa forma, a visão até então difundida de que haveria um espiralar até o núcleo não poderia ser confirmada, uma vez que saberíamos a posição e a velocidade (repouso) da partícula. Com a teoria quântica, passou-se a calcular as posições de maior probabilidade onde se encontraria o elétron em torno do núcleo, o que estudamos no Ensino Médio, os tipos de órbitas em que o elétron pode se encontrar no átomo. “Se fosse possível combinar a relatividade geral com a mecânica quântica de modo a formar uma teoria quântica da gravidade, se descobriria que as singularidades da expansão ou do colapso gravitacional estariam espalhadas (smared out), tal como no colapso do átomo”. “A primeira indicação de que isto poderia ser real apareceu com a descoberta de que os buracos negros, formados pelo colapso de regiões localizadas como as estrelas, não eram completamente negros se se levasse em conta o princípio da incerteza da mecânica quântica. Em vez disso, um buraco negro deve emitir partículas e radiação, sendo um corpo quente com uma temperatura que é maior quanto menor for sua massa”.
A partir desse novo paradigma novos problemas surgiram, por exemplo como definir as condições iniciais?. “O facto de as leis científicas não determinarem o estado inicial do universo numa singularidade, mas somente a maneira como o universo evolui a partir daí, constitui o verdadeiro problema de o espaço-tempo ter uma fronteira numa singularidade. [...] Muitos cientistas ficam embaraçados quando falam das condições de fronteira do universo porque têm a impressão de que esse tópico se aproxima da metafísica ou da religião”. De acordo com a “teoria geral da relatividade clássica, que não incorpora o princípio da incerteza, o estado inicial do universo é um ponto de densidade infinita”, já “quando a mecânica quântica é levada em conta, surge uma nova possibilidade, nomeadamente a de a singularidade poder ser espalhada”. Ou seja, “no universo muito primitivo, quando o espaço estava muito comprimido, o efeito de espalhamento (smearing) devido ao princípio da incerteza pode mudar esta distinção fundamental entre o espaço e tempo. [...] podemos dizer que o tempo se torna totalmente espacializado; é então mais correcto falar, não de espaço-tempo, mas de um espaço tetradimensional”. Isto é, o tempo no início/fim é distinto do que conhecemos hoje por tempo.
Hauking observa que “ainda não conhecemos a forma exacta das leis; nesta altura temos um certo número de leis parciais que governam o comportamento do universo sob todas as condições, excepto as mais extremas. Contudo, parece provável que estas leis façam todas parte de alguma teoria unificada que ainda temos de descobrir”.
A partir deste ponto, Stephen procura definir quais são as características da física atual, suas divisões e tratar da tendência de como esta ciência deverá ser para abordar todas as situações, para ter uma visão mais ampla da realidade, de nosso universo.
“Não teremos uma teoria completa até podermos fazer mais do que dizer: ‘As coisas são como são porque sempre foram assim’”. Até o momento “é muito difícil imaginar uma teoria completa de todo [...] o que fazemos é procurar teorias parciais que descrevam situações nas quais certas interacções possam ser ignoradas ou aproximadas duma maneira simples. Começamos por dividir o conteúdo material do universo em duas partes: partículas de ‘matéria’ e ‘interações’. [...] As partículas fundamentais da matéria estão dividas em dois grupos [...] As interacções estão divididas fenomenologicamente em quatro categorias. Por ordem crescente de intensidade, elas são: as forças nucleares fortes [...] o eletromagnetismo [...] as forças nucleares fracas [...] a gravidade”.
Há já em desenvolvimento as ‘teorias de grande unificação’ que “poderão constituir um passo significativo em direcção a uma teoria unificada completa”. Elas “propõem que, acima desta energia [1015 GeV], as interacções fortes estejam unificadas com as interacções fraca e eletromagnética, mas que a energias baixas ocorra quebra espontânea de simetria”. O que mostra que “até agora, a maior parte do esforço dos físicos tem sido consagrado à unificação das primeiras três categorias de interacções físicas: as forças nucleares forte e fraca e o eletromagnetismo. [...] Todavia, temos de incluir a gravidade se quisermos obter uma teoria completamente unificada. Além disso, a teoria da relatividade generalizada, que é clássica, prevê que existam singularidades no espaço-tempo, nas quais o campo gravítico se tornará infinitamente forte. Essas singularidades ocorreriam, no passado, no início da presente expansão do universo (o big bang) e no futuro, no colapso gravitacional de estrelas e, possivelmente, do próprio universo”. “Assim, é essencial uma teoria quântica da gravidade se quisermos descrever o universo primitivo e dar alguma explicação para as condições iniciais, para além de recorrer meramente ao princípio antrópico [‘As coisas são como são porque sempre foram assim’]”.
Mas Hauking mostra a polêmica que há ainda a esse respeito apesar de discordar dos que questionam: “’Terá o tempo realmente um princípio e, possivelmente, um fim, como é previsto pela relatividade geral clássica, ou estarão as singularidades no big bang e no grande esmagamento espalhadas de alguma forma devido a efeitos quânticos?’”.
Lembra também que, com o princípio da incerteza, “mesmo que encontremos uma teoria unificada, só podemos fazer previsões estatísticas. Também teríamos de abandonar o ponto de vista de que existe um único universo, o que observamos”. Define que “a mecânica quântica é essencialmente uma teoria do que não sabemos e não podemos prever”. Mas que não devemos nos deixar levar pela experiência no passado em que “Cada vez que estendemos as nossa observações a escalas de comprimento mais pequenas e a energias mais altas, descobrimos novas camadas de estrutura”, a qual “poderá sugerir que existe uma sequência infinita de camadas de estrutura a energias cada vez mais altas. De facto, uma tal visão de um regresso infinito de caixas dentro de caixas constituía dogma oficial na China na altura do Bando dos Quatro. No entanto, parece que a gravidade deve fornecer um limite à escala muito pequena de comprimentos [...] ou à energia muito alta”.
Termina afirmando a tendência do fim do paradigma atual – física teórica, físicos teóricos : “Assim, talvez o fim esteja à vista para os físicos teóricos, se o não estiver para a física teórica”.
terça-feira, 10 de maio de 2011
Mudança de paradigmas na arte (séc.XIV-XVIII)
A partir do renascimento houve uma apreciação maior da arte antiga em contraposição à arte medieval. Daí vem o nome renascimento, como se o período da Idade Media fosse um período morto para o desenvolvimento artístico e cultural.
Mas o que se passou a buscar não era a copia das obras clássicas, mas o modo harmonioso e belo dos antigos.
Donatello foi um dos maiores escultores italianos do período. Ele não tinha a preocupação em fazer tudo claro como era a arte medieval, quis representar o caos a que faz menção sua obra. Não se pode representar o Festim de Herodes de maneira a não colocar toda a agitação que este deveria ter.
Em acompanhamento ao desenvolvimento cientifico, Brunelleschi desenvolveu pela matemática, a perspectiva. Não que não houvesse o escorço feito pelos gregos, porem foi nessa época que se utilizou dados matemáticos para criar o efeito de perspectiva.
Nesse período, os pintores querem aprimorar suas obras. Mas para que se possa fazer algo mais detalhado, mais aperfeiçoado a tinta existente até então não ajudava, pois era feita com ovo e secava rapidamente. Na busca por uma solução Van Eyck inventou a tinta à óleo, que, em vez d utiliza a clara do ovo para transformar o pó colorido em uma pasta, o óleo permitia a mescla entre cores, e permitia que se trabalhasse por mais tempo em um mesmo trecho da obra por não secar tão rápido. Assim pode-se aprofundar a tendência de valorizar os detalhes, a perfeição na imitação da natureza.
Surgiu então o problema da disposição das coisas no conjunto, que é um ponto principal para que a obra seja harmoniosa, é um ponto importante para um artista. Masaccio. Ticiano chegou a deslocar a Virgem do centro da imagem.
Mas a perspectiva passou então a ser muito utilizada priorizada, até que se perdeu outras qualidades do trabalho artístico. Artistas como Uccello se empenharam tanto em fazer a perspectiva que suas obras perdem em movimento, chegam a parecer cavalos de mentira, mas sua preocupação está voltada para outro aspecto. Após esse desgaste dessa técnica novos pintores vão mudar o foco de preocupação, vão chegar a utilizar menos as novas tecnologias.
A invenção da imprensa colaborou para que esses novos valores de investir nos detalhes da obra fosse disseminado por toda a Europa. Ainda não era considerado desonroso usar o trabalho de outro artista como base para suas criações, então os artistas viam livros com figuras e estampas de italianos e desenvolveram suas artes no Norte. As estampas eram usadas pela Igreja como sermão. A principio com a xilogravura, mas como esta não permitia muitos detalhes desenvolveu-se a calcogravura (em cobre)que deu mais liberdade aos artistas.
Com o desenvolvimento das cidades italianas, passou a haver uma disputa para qual cidade teria maior fama, e elas começaram a investir em artistas para que criassem obras grandiosas para seus edifícios e áreas urbanas. A partir deste momento o artista foi deixando de ser um vendedor como outro qualquer, ele não obedecia mais aos pedidos, aos mandos do cliente, ele era o próprio criador independente e respeitado. Assim pode haver um desenvolvimento mais livre da arte pelos interesses dos artistas. Que até então eram vistos como menos dignos de respeito que um poeta por fazer uma atividade manual. Desde a Grecia pensava-se dessa forma.
Nesse período artistas como Da Vinci, Michelangelo e Rafael pesquisaram sobre o corpo humano, sobre a natureza e aprofundaram sua analise para que suas obras fossem uma copia perfeita da natureza. Até Da Vinci havia um problema na representação, apesar de tentarem dar um ar de movimento às obras, elas pareciam estáticas. Foi com a técnica do sfumato descoberta por Da Vinci que se passou a obter um movimento nas obras. Essa técnica consiste em deixar para a imaginação, para o observador imaginar a continuação do desenho. Na Mona Lisa essa técnica foi utilizada nos cantos da boca e dos olhos.
A cada novo descobrimento mudavam-se os valores. Antes a prioridade passou a ser a perspectiva, sem movimento, sem aparentar ser objetos reais. Depois tendeu-se a se preocupar mais com aparentar ser real, com todos os detalhes e proporções (em oposição ao período medieval que colocava maior o que era mais importante e menor o menos importante – não que não tenha havido nenhum artista nesse período que tivesse utilizado as não proporções para criar harmonia, como Durer que fez Adao e Eva com braçoes e pernas mais longos.). Até a descoberta de como dar movimento ao trabalho.
Chegou-se então ao limite dessa forma de arte, não se acreditava ser possível suplantar os grandes mestres desse período. Passou-se a fazer quadros que exigiam tanto conhecimento prévio que parecia mais um quebra cabeça que só os mais eruditos poderiam compreender a obra. Como o que os eruditos da época acreditavam significar os hieróglifos egípcios, era necessário entender para acompanhar a obra.
Na arquitetura a preocupação em superar os mestres levou a construções em que a finalidade da construção foi prejudicada em função das criações. Foi nesse período que se construiu a janela em forma de face.
Os maneiristas como Giovanni da Bologna e Parmigianino preferiram desafiar as bem estabelecidas regras e mostrar que efeitos surpreendentes poderiam ser obtidos. Tintoretto trabalha com as tonalidades quebradas para aumentar a tensão.
“Seu quadro do combate de S. Jorge com o dragão, em Londres (fig. 234), mostra como a luz sobrenatural e as tonalidades quebradas aumentam a sensação de tensão e excitação. Sentimos que o drama atingiu seu clímax nesse exato momento. A princesa parece estar fugindo do quadro em nossa direção, ao passo que o herói, contra todas as regras, é afastado para o fundo da cena.” (GOMBRICH, Ernest H., História da Arte, 16 Ed. Rio de Janeiro: LTC,2000)
Enquanto no Sul, na Italia, a preocupaçao era em como inovar na arte, no Norte, com a Reforma, com Lutero, passou-se a questionar se a arte deveria representar temas religiosos. Tambem passou-se a criticar o luxo. Os pintores dessa região tiveram grandes dificuldades e desenvolveram mais a arte retrato, que faziam dos doadores.
Nos Países Baixos, alem dos retratos desenvolveu-se a pintura da natureza, um flor, um celeiro, um rebanho de ovelhas. E esses artistas passaram a buscar mercado para suas especialidades.
Já no século XVII, passou-se a buscar não mais a beleza ideal dos clássicos, seguindo a tendência maneirista, o objetivo era representar exatamente como se via, seria representar, vamos dizer assim, a verdade. Considerado naturalismo.
Os pintores holandeses dessa época não eram especializados em retratos, primeiro faziam suas obras e depois saiam para vende-las, diferente da idade media e da renascença italiana que primeiro recebiam a encomenda para então trabalhar na obra. Apesar de agora não terem mais um patrão que diz que tipo de obra quer, esse modo não Poe um tipo de freguês certo do outro lado, que comprará o trabalho. É preciso sair para vender. É nessa época que os pintores se especializam em um tipo de pintura, seja ele o mar, natureza morta d frutas, plantas, pois os artistas passam a ser conhecidos na feira pelo estilo que melhor pintam, e não tão facilmente vendem suas obras que não sejam do tema que já são conhecidos por pintar bem.
Essa liberdade maior leva a pintores a fazerem o que quiserem, e da mesma forma que os bons pintores poderão desenvolver obras melhores, os maus pintores acabarão por fazer pior do que se tivessem algo certo por fazer, sem liberdades. Isso se intensificou no período moderno.
As naturezas mortas permitiam ao artista experimentar disposições dentro do quadro. E isto passou a ser a busca dos novos artistas. Vermeer foi um desses.
(Barroco) Ao mesmo tempo em que isso se desenvolvia no Norte da Europa. No Sul, na Itália, a Igreja contratava mais e mais artistas para criar obras que não só ensinassem o que dizia a bíblia para os que não sabiam ler, mas que convencesse os que leram demais a retornar ao catolicismo. Essa arte utiliza de cores, luzes para dar um caráter teatral.
Nesse período ainda maneirista havia uma discussão sobre se deveria permanecer copiando as obras dos grandes mestres ou se seria arte inovar, fazer algo diferente.
A pintura passou a ser algo ensinado nas academias como a filosofia. E a própria ênfase dada nos mestres do passado gerava a venda de obras deles e não dos novos e vivos artistas. Dessa forma, passou-se a fazer exposições para que se observassem os novos pintores e não só os antigos.
Passou-se também a buscar novos temas para se pintar. Temas não religiosos, temas de Shakespeare, de outros textos, acontecimentos históricos, acontecimentos recentes. E essas inovações modernas se deram principalmente na América, onde havia menos influencia das academias, das regras pré-estabelecidas.
No fim do século XVIII, com a Revoluçao Francesa, põe-se finalmente em questão alguns pressupostos que haviam sido tomados por verdadeiros há muito tempo. A primeira dessas mudanças refere-se à atitude do artista em relação ao que se chama estilo. Na arquitetura, questionou-se porque todos seguiam o que havia no livro de Palladio. Walpole foi um dos primeiros a querer ter seu próprio estilo. Foi um dos primeiros indícios daquela consciência individual que levou as pessoas a escolherem o estilo de suas casas do mesmo modo que se seleciona o padrão do papel de parede.
Assinar:
Comentários (Atom)
