O Iluminado

Hoje não posso deixar de prestar homenagem a um dos meus grandes ídolos, um dos caras que mais me fizeram ter amor pela ciência e pela popularização da ciência: o iluminado Stephen Hawking.

Iluminado sim, pois sua mente prodigiosa, mesmo aprisionada num corpo paralisado, nos auxiliou a compreender melhor os mistérios da nossa existência. Considerado o físico mais importante de nosso tempo e o mais insigne depois de Newton e Einstein, Hawking de certo modo complementou a obra desses outros dois gênios. Seu trabalho consistiu em explicar como o Universo surgiu e como evoluiu desde então, e por que as leis da física são como são.

Mais do que isso, seu pensamento tocou em questões ontológicas que perturbam a todos os que somos dotados de alguma curiosidade e temos espírito aberto: por que existimos? por que a realidade existe em vez do nada? poderia o nada existir? se o Universo existe, é porque ele foi criado?

Ateu convicto, Hawking tinha respostas convincentes a todas essas questões, embora sua modéstia, típica dos sábios, o levasse a nunca afirmar nada peremptoriamente. Afinal, diferentemente da religião, que tem respostas prontas para tudo (e sempre as mesmas respostas ao longo de milênios), a ciência não se baseia em argumentos de autoridade ou em verdades pretensamente reveladas, mas em pesquisa, isto é, observação meticulosa, investigação, experimentação e raciocínio lógico. Hawking sabia como ninguém que não existem verdades prontas e acabadas, o que existe é a possibilidade de o engenho humano descobrir mais e mais, chegando sempre mais perto da verdade sem jamais atingi-la por completo. Uma de suas frases célebres diz: “há uma diferença fundamental entre a religião, que se baseia na autoridade, e a ciência, que se baseia na observação e na razão. A ciência vai ganhar porque ela funciona”. É o que vemos todos os dias: a ciência provando suas teorias e demolindo as crenças religiosas. Pena que ela seja acessível a poucos.

300px-NGC_4414_(NASA-med)

Por isso mesmo, o iluminado Hawking também teve a generosidade de partilhar conosco, simples mortais, suas descobertas e seu conhecimento. Ele foi um incansável e magistral divulgador da ciência, e sua paixão pela comunicação do saber o fez transpor as limitações de sua condição física, jamais deixando de escrever para o público leigo e de dar palestras em todo o mundo, mesmo tendo de usar um sintetizador de voz para falar. Seus livros tornaram-se best-sellers e ele, uma celebridade pop, digna de aparecer nos Simpsons, no Laboratório de Dexter, em The Big Bang Theory, em Star Trek, e de ter sua vida retratada em filme (A Teoria de Tudo, 2014).

Seu trabalho incansável de divulgador científico levou milhares de jovens a se apaixonar pela ciência e a abraçá-la como carreira, bem como iluminou a mente de muitas pessoas, livrando-as do obscurantismo da crendice e da superstição. Para mim, que tento ser um divulgador da ciência da linguagem e milito no campo das Humanas, às vezes tão avesso ao método científico, tão apegado ao dogmatismo marxista, Hawking é uma inspiração, alguém que me motiva a seguir adiante apesar de todas as diversidades.

Mas a vida de Stephen Hawking também tem a mística da trajetória dos grandes homens. Nascido no dia em que se completavam 300 anos da morte de Galileu e no ano em que se comemorava o 300º aniversário de nascimento de Newton, faleceu no dia do aniversário de nascimento de Einstein, no qual também é celebrado o Dia do Pi, a famosa constante matemática 3,14… (é que 14 de março se escreve em inglês como 3/14). E faleceu aos 76 anos, como o gênio alemão. Todas essas coincidências – ou sincronicidades, se preferirem – são peças que a realidade nos prega, talvez tentando nos revelar seus caprichos mais sutis. Pois, como disse Einstein, a natureza é sutil, mas não maliciosa.

Além de tudo, ele teve a grandeza moral dos fanais da humanidade. Preso a uma cadeira de rodas, ele viu melhor que ninguém e nos mostrou mais claramente o mundo que habitamos, qual um Beethoven tirando a mais bela música do silencio da surdez, qual um Aleijadinho que, sem mãos, esculpiu na pedra o orgulho da nossa nacionalidade, qual um Homero cego cantando a Ilíada.

Caro Steve, você fará uma baita falta!

Anúncios

O ser e o devir

A ontologia é a parte da filosofia que estuda o ser em si, independente de suas qualidades. Um dos primeiros filósofos a se preocupar com a questão do ser foi Parmênides, para quem “o ser é, o não-ser não é”. Essa afirmação algo enigmática pressupõe a imutabilidade do real e a inexistência do nada: a realidade é perene e eterna em sua plenitude, e a mudança que percebemos no mundo, mera ilusão.

Contrapondo-se a essa visão estática do ser, Heráclito afirmou que tudo flui e nada permanece, portanto não se pode atravessar duas vezes o mesmo rio. Estava instaurada a noção de “devir”, isto é, “tornar-se”, do latim devenire, que produziu o francês devenir e o italiano diventare.

Aristóteles procurou conciliar essas duas visões da realidade postulando a diferença entre potência e ato: a realidade é o que é, mas contém também a possibilidade do vir a ser (assim como a semente é uma árvore em potencial).

Se o ser é visto como algo estático, permanente, o devir é a mudança, o movimento. Talvez por isso os verbos que nomeiam esse processo de passar de um estado a outro (de um ser a um não ser e então a um novo ser) estejam relacionados ao deslocamento, seja de longe para perto (do ausente ao presente, diríamos), representado pelo “vir” (latim devenire, inglês become, português “vir a ser”), seja o deslocamento em torno ao próprio eixo (de costas para a frente), como algo que, ao girar, se nos apresenta.

Essa segunda concepção do devir como volta, giro, está presente no grego pélein, proveniente da raiz indo-europeia *kwel, que também deu pólos (polo, eixo), kýklos (círculo) e em latim produziu colere (revolver, cultivar), collum (pescoço), em sânscrito cakram (chacra, círculo) e em inglês wheel (roda).

Além do grego pélein, a ação de tornar-se se expressa em várias línguas com termos que significam “virar, verter”: alemão werden, espanhol volverse e convertirse, além do próprio português “tornar-se” (de “torno”) e “virar”, este último de uso popular. É como se aquilo que se transforma girasse em torno do próprio eixo e, ao completar a volta, fosse outro (como o super-herói disfarçado de cidadão comum que, ao girar rapidamente, ressurge já com sua máscara e sua capa, pronto para combater o mal).

Essa recorrência da imagem do giro como transformação espontânea é o que chamamos de metáfora cognitiva: é tão intuitivo associar mudança a movimento e a mudança de si mesmo ao giro em torno do próprio centro que muitos povos e culturas recorrem a essa concepção para nomear o devir. Talvez a própria percepção de que os movimentos do cosmos são cíclicos nos tenha levado a ver a transformação como ciclo: a realidade é um constante e eterno embate entre o ser e o devir – no fundo, um eterno retorno.

A legião dos imbecis

As redes sociais dão o direito de falar a uma legião de imbecis que antes só falavam na mesa de bar depois de uma taça de vinho, sem prejudicar a coletividade. Eram rapidamente silenciados, mas agora têm o mesmo direito de falar que um prêmio Nobel. É a invasão dos imbecis.

Umberto Eco ao jornal La Stampa

A ciência ainda não sabe com certeza quando o homem começou a falar. Alguns estudiosos acreditam que essa faculdade tenha surgido há menos de 30 mil anos – cálculos mais conservadores falam em 15 mil – enquanto outros tantos pesquisadores sugerem que a linguagem seja tão antiga quanto nossa própria espécie, cujo surgimento se estima em torno de 200 mil anos atrás. O fato é que, por milênios, os únicos tipos de comunicação possíveis entre os seres humanos foram o interpessoal (duas ou três pessoas conversando) e o grupal (alguém falando a uma pequena plateia). O maior alcance que um discurso podia ter era propiciado por inscrições em pedra ou manuscritos em papiro ou pergaminho com um número limitadíssimo de exemplares. Ou seja, tudo o que se escrevia era lido por no máximo algumas centenas de pessoas.

De certa forma, a comunicação em massa surgiu com a invenção da imprensa por Gutenberg em 1452. Claro que no começo os textos impressos ainda tinham poucos leitores, já que a maior parte da população era analfabeta, o que desestimulava a produção de grandes tiragens de livros. Porém, a partir do momento em que se multiplicaram os livros e, em seguida, os jornais, era possível, em tese, comunicar-se com o mundo.

Mas a comunicação de massa teve seu impulso definitivo em princípios do século XX, com o surgimento dos chamados mass media (rádio, televisão, cinema, fonógrafo, revistas); agora era possível efetivamente falar a milhões de pessoas, em todos os lugares do planeta. Só que a comunicação de massa é unidirecional: alguém apenas fala e multidões apenas escutam. Esse sistema pode parecer hoje em dia pouco democrático, já que o diálogo é sempre mais salutar que o monólogo. No entanto, se havia tão pouco espaço para falar, era natural que esse espaço fosse destinado preferencialmente a quem tivesse algo relevante a dizer. O que não significa que irrelevâncias não fossem também veiculadas. Mas, se não era possível publicar tudo o que todos queriam dizer, editoras, gravadoras, estúdios de cinema e de TV, emissoras de rádio e empresas jornalísticas optavam por publicar aquilo que certamente interessaria a mais pessoas. Com isso, o que era de fato divulgado tendia a ter alguma qualidade ou, pelo menos, alguma pertinência. Aliás, na comunicação de massa a busca pela qualidade é um princípio norteador da produção de conteúdo: uma cena é refilmada ou uma canção regravada tantas vezes quantas forem necessárias para que o resultado seja não menos que perfeito; um texto escrito é burilado, reescrito e revisado até que se achem as melhores palavras para expressar as melhores ideias.

Isso foi exclusivamente assim até a última década do século passado. Então surgiu a internet e, com ela, as redes sociais. A partir desse momento, a comunicação de massa começou sofrer a concorrência da comunicação em rede, sistema em que, teoricamente, todos conversam com todos, isto é, todos têm direito – e espaço – de se expressar e dizer o que pensam, e todos podem reagir expressando-se pelos mesmos canais. Já não somos mais obrigados a apenas ouvir, mas também podemos falar. O grande intelectual, o artista famoso, o ídolo das multidões e o simples mortal, o cidadão anônimo, o zé-ninguém agora estão lado a lado. O presidente da nação mais poderosa do mundo e a criança de sete anos têm os mesmos 280 caracteres à sua disposição. A maior rede de televisão do país concede a todos seus quinze segundos de fama, desde que o celular esteja na horizontal. Tudo muito democrático. Só que não.

A promessa de uma comunicação igualitária, em que todos os habitantes do planeta podem falar e ouvir, levou a humanidade não ao entendimento geral, mas ao maior desentendimento que a História poderia registrar: todos falam, poucos ouvem e ninguém tem razão. Antes, muitos desconfiavam da imprensa, mas o que os jornais diziam tinha grande credibilidade; hoje, em que qualquer pessoa pode ser fonte de informação, não sabemos como lidar com as fake news, e os limites entre a verdade e a pós-verdade (ou verdade alternativa) são nebulosos. Antes, nos irritávamos com certas propagandas no rádio ou na TV; hoje, nossa caixa de e-mails fica lotada de spams em poucos segundos. Antes, quem se sentisse alvo de calúnia pelos meios de comunicação tinha direito de resposta; hoje, pratica-se o linchamento moral de qualquer um, principalmente de quem diz a verdade. Antes, uma criança tinha de lidar com a caçoada dos coleguinhas de classe; hoje, o bullying se dá pelas redes sociais, em escala nacional ou mundial. Antes, era preciso saber cantar para ser cantor e saber escrever para ser escritor; hoje, já nem tanto. Por fim, hoje todos odeiam alguém e todos são odiados por alguém, sempre on line, bastando digitar. A paradoxal sensação de anonimato num meio em que todos se expõem parece nos dar o direito de atacar o outro sem responsabilidade, não importa se justa ou injustamente, desde que com crueldade. Como diz o historiador e pop star Leandro Karnal, somos todos contra todos, ou, segundo o sábio Umberto Eco, foi dada a palavra à legião dos imbecis. O consolo é que, mesmo nesse ambiente de caos e barbárie comunicacional, grande parte das pessoas ainda prefere ouvir quem tem algo relevante a dizer. Ou seja, mesmo dentro da rede existem nichos de comunicação de massa, predominantemente unidirecional: gente inteligente que sabe ouvir escuta gente inteligente que sabe falar. Enquanto isso, no restante da rede, os imbecis se digladiam.

Escola sem partido e escola sem ciência

O movimento Escola sem Partido, que já havia chamado a atenção da opinião pública ao conseguir no Supremo Tribunal Federal que redações do ENEM que supostamente ferissem os direitos humanos não pudessem ser anuladas, mas tivessem de ser corrigidas e avaliadas como as demais, voltou a chamar a atenção. Agora, no último dia 12, quatro estudantes foram detidos ao protestar com violência na Câmara Municipal de São Paulo contra a votação de projeto de lei inspirado no movimento. Ou seja, o debate sobre se o ensino pode/deve ou não seguir esta ou aquela linha ideológica está esquentando.

Antes de mais nada, convém explicar o que defende o referido movimento. Segundo seu próprio site (www.escolasempartido.org),

[n]uma sociedade livre, as escolas deveriam funcionar como centros de produção e difusão do conhecimento, abertos às mais diversas perspectivas de investigação e capazes, por isso, de refletir, com neutralidade e equilíbrio, os infinitos matizes da realidade.

No Brasil, entretanto, a despeito da mais ampla liberdade, boa parte das escolas, tanto públicas, como particulares, lamentavelmente já não cumpre esse papel. Vítimas do assédio de grupos e correntes políticas e ideológicas com pretensões claramente hegemônicas, essas escolas se transformaram em meras caixas de ressonância das doutrinas e das agendas desses grupos e dessas correntes.

[…]

O EscolasemPartido.org – único site em língua portuguesa inteiramente dedicado ao problema da instrumentalização do ensino para fins políticos e ideológicos – foi criado para mostrar que esse problema não apenas existe, como está presente, de algum modo, em praticamente todas as instituições de ensino do país.

[…]

O objetivo do movimento é claramente combater a doutrinação ideológica em sala de aula, notadamente de esquerda, visto ser a mais frequente em nosso país, bem como eventuais doutrinações de natureza religiosa ou moral. Isso inclui tudo – desde a pregação pró-marxista ou antimarxista até pregações contra ou a favor da teoria da evolução ou da conduta homossexual. Em outras palavras, tudo pode e deve ser discutido na escola, mas sem viés persuasivo, isto é, com neutralidade, isenção e direito dos alunos de conhecer todos os lados da questão.

Muitos detratores do movimento dizem que não é possível educar sem uma visão crítica da realidade. Sem dúvida, a escola deve ser um espaço crítico, no sentido de fazer o aluno pensar e não apenas aceitar passivamente o que lhe é imposto como verdade. No entanto, educação crítica é muito diferente de educação esquerdista, embora muitos pensadores de esquerda achem e defendam que somente a esquerda tem a capacidade de exercer a crítica. Por sinal, a teoria da comunicação desenvolvida pelos filósofos da chamada Escola de Frankfurt, que se autointitula “teoria crítica da comunicação”, é declaradamente anticapitalista (eu diria até “rancorosa” com o capitalismo), o que nos obriga a ter certa cautela no emprego da palavra “crítica”.

Antes de mais nada, é papel da escola difundir conhecimento, sobretudo o científico; valores políticos, morais e religiosos são atribuição da família. Como diz o educador Mário Sérgio Cortella, à família cabe educar, à escola cabe escolarizar. E, nesse sentido, não tenho notícia de forma de conhecimento mais crítica que a ciência. Não por acaso, cientistas sempre foram perseguidos pelas religiões, pelos monarcas absolutistas e por todo tipo de ditadores.

A meu ver, o grande problema da escola é que as chamadas “ciências humanas” muitas vezes não se comportam realmente como ciências: em áreas como história e sociologia, por exemplo, a postura científica por vezes dá lugar à ideologia. Lembro de um colega, professor de sociologia, que ensinava aos alunos que o amor é uma construção social. Ora, isso está em flagrante contradição com o que dizem – e provam – a biologia e a neurociência. Não só o amor é um sentimento universal (está presente em todas as culturas) decorrente de nossa bioquímica cerebral como existe também entre os animais (ao menos os superiores, como aves e mamíferos), assim como entre animais e humanos (quem tem um animal de estimação sabe muito bem disso!).

Essa ideia de que tudo é construção social, inclusive nossos traços biológicos mais básicos, como a identidade de gênero, é bastante difundida entre os humanistas e bastante cara aos professores das disciplinas de humanas. Portanto, falta às ciências humanas um pouco de cientificidade.

1021436-blog-kruger-02

Se os leões caçam e comem antílopes, para o zoólogo isso não é nem bom nem mau, é um fato natural, já que a natureza não se pauta por princípios morais e sim por leis físicas. Do mesmo modo, se uma estrela, ao fim de sua vida, se expande e engole todos os corpos celestes que orbitam à sua volta, isso tampouco é bom ou mau para o astrônomo, é apenas mais um fenômeno físico do qual ele deve dar conta com o conhecimento científico de que dispõe.

Do mesmo modo, guerras, massacres, ondas migratórias, episódios de fome ou de epidemias e a própria evolução das sociedades, que gera desigualdades dentro delas e entre elas, tudo isso faz parte dos mecanismos naturais que regem as sociedades humanas e que os sociólogos, antropólogos, cientistas políticos e historiadores devem saber explicar de forma objetiva por meio da enunciação de leis gerais. Dito de outro modo, cabe à ciência fazer juízos de verdade e não juízos de valor. Cabe aos cientistas constatar os fatos, ver neles o que há de geral, repetitivo e previsível e, sem atribuir à natureza ou à sociedade fins morais, elaborar um modelo teórico que seja capaz de explicar e prever a maioria dos fenômenos observáveis.

Portanto, se os nazistas mataram seis milhões de judeus durante o Holocausto, isso não deveria ser visto pelos historiadores nem ensinado pelos professores de História como algo bom ou ruim: trata-se de mais um dentre tantos fatos históricos que obedecem a uma lógica, e descobrir qual é essa lógica que norteou centenas de outros massacres e centenas de outros regimes tirânicos ao longo da história é a tarefa de uma ciência que pretenda explicar a evolução temporal das sociedades humanas. Se o nazismo foi bom ou mau, cabe aos próprios educandos, mediante a apresentação isenta de todos os fatos que o precederam e motivaram, concluir. Isso sim é exercício do senso crítico.

A partir do momento em que um professor discursa em sala de aula sobre a “crueldade” do capitalismo e sobre como somente o socialismo de modelo petista, cubano ou venezuelano poderá levar os seres humanos à felicidade eterna, ou quando aponta a “perversidade” da civilização branca cristã europeia contra os pobres e indefesos negros africanos, sem contextualizar os fatos históricos e mostrando apenas os aspectos positivos de um lado e os aspectos negativos do outro, ele não está fazendo ciência, está promovendo ideologia. E a ideologia é o revés da ciência, já que esta se apoia em fatos e aquela, em crenças. Mesmo que a maior parte da sociedade acredite que o homem descende de Adão e Eva, isso é uma crença, não um fato. Já a evolução das espécies pela seleção natural é um fato em favor do qual existem inúmeras evidências e que pode ser constatado empiricamente a qualquer momento. Aliás, a própria ação humana tem influído na evolução das espécies diante de nossos olhos. O problema é que o ensino das chamadas ciências humanas se assemelha mais à pregação criacionista do que ao ensino da teoria da evolução. Penso mesmo que a antipatia dos estudantes de humanas pelas ciências naturais, assim como a péssima qualidade do nosso ensino de ciências, tem contribuído para o divórcio entre ciências do homem e ciências da natureza. A partir daí, temos desde professores de humanas que acreditam não serem os fatos sociais explicáveis pelo método científico, como se uma intervenção divina a todo momento impedisse as sociedades de seguir seu curso natural, até educadores que, crendo em determinada doutrina, seja ela o criacionismo bíblico ou o marxismo, tomam sua crença por verdade absoluta e passam a sentir-se no dever de “salvar as almas dos alunos”, levando-lhes a iluminação dessa Verdade. Ou seja, ainda que bem-intencionados, tais professores cedem ao dogmatismo, cuja consequência prática é a doutrinação, que em casos extremos pode chegar a tentativa de lavagem cerebral. E ninguém é mais inimigo do dogmatismo, portanto ninguém tem mais senso crítico do que a ciência. Falta aos humanistas descobrir isso.

Direitos humanos e o direito à liberdade de expressão do pensamento

Dois fatos recentes – a decisão judicial que proibiu os examinadores do Enem de anular as provas de redação que porventura ferissem os direitos humanos e o afastamento do jornalista William Waack da Rede Globo após o vazamento de um vídeo com suposto teor racista – nos fazem pensar sobre os limites da liberdade de expressão do pensamento e da criminalização da linguagem.

Até a decisão liminar da ministra do Superior Tribunal Federal Carmen Lúcia sobre ação impetrada pelo movimento Escola sem Partido, os examinadores das provas de redação do Enem podiam zerar a nota de uma redação que eles entendessem ofensiva aos direitos humanos sem examinar qualquer outro quesito. Como professor de português, sempre achei questionável esse critério de avaliação – ou melhor, de não avaliação – de uma prova de redação, já que o que deve estar em julgamento é a capacidade de se expressar com clareza, coesão, coerência e correção gramatical, que todo aluno concluinte do ensino médio e pretendente a uma vaga universitária deve ter, e não suas posições ideológicas.

Da mesma forma como, durante o regime militar, era proibido e, mais do que isso, perigoso expressar opiniões que pudessem ser consideradas “de esquerda”, parece que hoje o jogo se inverteu, e o que é proibido ou execrável é ter posições que sejam vistas por certos grupos detentores de poder como “de direita”. Em tempos em que até a intolerância ao glúten pode ser vista como crime de intolerância, fica a impressão de que, para entrar na universidade, é preciso estar alinhado ideologicamente com aqueles que ditam as regras nas instâncias superiores da educação brasileira.

download

Hoje se tipifica um novo tipo de crime, o chamado crime de ódio, em que o criminoso tem como motivação de seu ato o pertencimento da vítima a um determinado grupo social, definido pela raça, religião, orientação sexual, deficiência física, etnia, nacionalidade, etc. Embora motivado pelo ódio (que é preciso distinguir de preconceito), o crime de ódio é fundamentalmente um crime, isto é, um ato de violência física, psicológica ou moral contra alguém. É, portanto, diferente da simples expressão do ódio, pública ou privadamente.

Vamos por partes. Em primeiro lugar, há uma diferença fundamental entre o ódio puro e simples e a violência praticada em razão dele. Odiar é uma prerrogativa humana (e creio que exclusivamente humana) decorrente do fato biológico de termos sentimentos. Isso significa que, assim como posso amar chocolate, viagens, MPB, um determinado time de futebol ou astro do cinema, certas pessoas em particular (amigos, parentes, o cônjuge), também posso odiar certas comidas, lugares e pessoas. E como os sentimentos não são racionais, mas são o oposto cognitivo da razão, não preciso de um motivo lógico para amar ou odiar algo ou alguém. A questão é: a simples expressão verbal do meu ódio é por si só um crime de ódio? Não sou versado em Direito, mas quero crer que não, afinal a Constituição Federal garante a todos o direito à livre expressão do pensamento (e eu acrescentaria, do sentimento). Mesmo os pensamentos e sentimentos mais vis estariam sob essa garantia, pois a vileza ou não daquilo que se pensa ou sente é questão de valor e não de verdade.

Quanto ao preconceito, tal como definido pelos dicionários como um julgamento prévio que fazemos de algo ou alguém, ele não é, em princípio, nem bom nem mau. Qualquer juízo que eu faça sem conhecer profundamente o que ou quem estou julgando é um preconceito. O que significa que ele pode ser também positivo: posso superestimar precipitadamente as qualidades do objeto em questão, como supor que a comida de um restaurante é muito boa apenas porque sua fachada é bonita ou chique.

Na verdade, o preconceito é um mecanismo mental de que a natureza nos dotou e que tem sido imprescindível à nossa sobrevivência: é graças a julgamentos prévios e por vezes superficiais que tomamos a decisão de nos arriscar ou não em certas situações. O mesmo preconceito que pode me fazer desconfiar injustamente de uma pessoa mal-encarada numa rua escura pode salvar a minha vida caso minha suspeita esteja correta.

O fato é que posso ter certos preconceitos, mesmo que infundados, sem que eles se transformem em ódio, assim como posso nutrir ódio por certos indivíduos sem que ele se transforme em violência. Posso, finalmente, expressar o meu ódio ou reprovação a uma pessoa ou grupo de pessoas sem que isso configure crime. Especialmente se faço isso em situação privada, de modo que o próprio alvo da minha desafeição não saiba o que penso dele.

William-Waack-Reproduo

E aí chegamos ao caso William Waack. Sem dúvida, dizer que buzinar insistentemente é “coisa de preto” revela preconceito negativo. Aliás, preconceitos desse tipo pecam por generalização. Não é porque um negro trafega com os vidros do carro abertos e o som do funk no volume máximo que todos os negros se comportam assim (e, é óbvio, há brancos que também assim se comportam). Mas o que proponho à reflexão é: a expressão do desapreço injustificado por toda uma raça por causa de uma buzina insistente é em si um crime? Ainda mais se feita em contexto privado e que deveria ser mantido privado, não fosse a má-fé de algum desafeto que tornou pública essa manifestação, por meio do hoje tão em moda “vazamento seletivo”?

É claro, Waack não está sendo processado criminalmente (ainda), pois não cometeu crime algum, o que ele está é sendo moralmente linchado por ter revelado involuntariamente um lado politicamente incorreto que todos nós temos, principalmente em momentos de intimidade e descontração. Quem nessas situações nunca fez um comentário maldoso acerca de alguém, quem nunca riu de uma piada racista ou sexista, quem nunca aludiu à sexualidade alheia de modo depreciativo, que atire a primeira pedra!

O fato é que, hoje, as redes sociais amplificam a repercussão de algo que deveria ser estritamente íntimo e dão voz a um novo tipo de pessoas, os haters, odiadores profissionais, que fazem da expressão pública do ódio a quem consideram fora dos parâmetros de sua ideologia a razão de sua existência. Ou seja, em nome de seu direito de condenar a manifestação do ódio alheio, eles odeiam e praticam a violência moral contra pessoas cuja biografia lhes faz inveja. E odeiam você por sua opinião, seja ela qual for, preconceituosa ou não, odienta ou não, desde que não concordem com ela. E, nesse afã, impedem a diversidade de opiniões dentro da universidade simplesmente impedindo que os portadores de certas opiniões entrem na universidade. Ou ignoram todas as boas contribuições sociais que uma pessoa deu ao longo da vida, em seu trabalho sério e competente, por causa de um deslize verbal, por vezes impensado – ou mal interpretado –, que todos nós cometemos no dia a dia, sobretudo imersos que estamos numa cultura de herança patriarcal, escravista, colonialista e censitária, da qual nem nos damos conta.

O que é arte, afinal?

As recentes polêmicas em torno das exposições Queermuseu, promovida pelo Banco Santander em Porto Alegre, e Brasil em Multiplicação, realizada no Museu de Arte Moderna (MAM) de São Paulo e patrocinada pelo Banco Itaú, têm colocado em discussão os limites da liberdade de expressão, a legislação e a moral da nossa sociedade, além do problema do (mau) uso do dinheiro público. Sem entrar no mérito dessas questões ou no do embate político-ideológico que subjaz a elas, quero refletir aqui sobre um ponto que me é particularmente caro e sobre o qual já me debrucei algumas vezes, como quando escrevi o livro Anatomia da cultura: uma nova visão sobre ciência, arte, religião, esporte e técnica (Ed. Palas Athena, 2003). Trata-se da pergunta: “O que é arte?”.

Nesta última exposição, o artista Wagner Schwartz jaz nu sobre um tatame na performance intitulada La Bête, em que emula a obra Bicho, de Lygia Clark. O problema que quero discutir aqui não é a presença do nu na arte, existente desde a Pré-História, e sim se uma pessoa, nua ou não, deitada num tatame pode ser considerada uma obra de arte.

Democrart_Lygia_Clarck_Obra3

Desde o advento da arte moderna, o limite entre o que é arte e o que não é vem-se tornando cada vez mais fluido, e o conceito de arte vem-se expandindo cada vez mais. Até aí, tudo bem, pois um dos atributos da arte é justamente alargar nossa visão sobre o fenômeno estético, buscando novas possibilidades de expressão e de provocar sensações e sentimentos por meio de estímulos sensoriais. Aliás, “provocar sensações e sentimentos por meio de estímulos sensoriais” é decerto a própria função primeira da arte.

Entretanto, nem tudo o que provoca reações emocionais através dos sentidos pode ser considerado arte, sob o risco de acharmos que tudo é arte. De repente, vejo uma mancha de mofo na parede do sótão, e essa visão provoca em mim, além do desconforto inicial de reconhecer a sujeira e umidade do ambiente (e consequente necessidade de uma boa limpeza ou pintura da parede), uma curiosidade sobre as formas ali estampadas a esmo, por obra da natureza e seus fungos. Lembro-me de quando era criança e ficava horas descobrindo formas familiares – um rosto, um cavalo, uma forma geométrica – nas nuvens do céu; a contemplação daquela proliferação de micro-organismos na parede esquecida de um cômodo idem me traz um momento de prazer contemplativo, logo empanado pela constatação racional de que aquela mancha, mesmo com todo o seu insuspeito lirismo, não deveria estar ali, fosse o ambiente mais arejado e mais frequentemente saneado.

A questão é: tudo o que é belo ou provoca sensações estéticas é arte? Uma mancha na parede, uma nuvem no céu, o rabisco de uma criança, as pegadas de um animal, isso é arte?

Em 1917, o francês Marcel Duchamp expôs um mictório numa instalação chamada La Fontaine (A Fonte) – e, fato pouco comentado pelos historiadores da arte, ele fez isso de pura gozação. No entanto, talvez tenha sido esse o divisor de águas entre a certeza e a dúvida em relação ao que pode ou não ser considerado arte. Afinal, até então, toda obra de arte, mesmo a mais vanguardista, pressupunha algum labor de seu criador, alguma técnica que precisava ser aprendida (daí as escolas de belas-artes, os conservatórios musicais, etc.), além, sobretudo, de algum talento, algo que ou se tem ou não se tem, já que é inato. Contudo, Duchamp lançava o conceito de ready made, um objeto pronto, sem nenhum trabalho do “artista” exceto o de nomeá-lo como obra de arte.

Fonte-urinol-Marcel-Duchamp-1917

Tive um professor na faculdade que certa vez foi à Bienal de Arte de São Paulo empurrando um carrinho de bebê. Até então, nada suspeito, afinal, que mal há em um pai levar seu filhinho a uma exposição de arte? Dentro da exposição, esse professor estacionou estrategicamente o carrinho – que obviamente não tinha bebê algum – em meio a outras esculturas e instalações e tirou de dentro uma placa onde se lia “Objeto n.º 24”. Depois escondeu-se atrás de uma pilastra e ficou a observar o comportamento dos passantes. Alguns simplesmente ignoravam o objeto, outros balançavam a cabeça em sinal de reprovação, mas um número não desprezível de pessoas parava, olhava, punha a mão no queixo, coçava a cabeça, rodeava o objeto como um cão diante de uma possível presa e, passado algum tempo, havia certa aglomeração de pessoas em volta do suposto objeto artístico, e algumas, com ar de superioridade intelectual, discursavam sobre os possíveis significados daquela obra, a mensagem a ser passada pelo artista, da alegoria ao nascimento da vida até o dilema transcendental que a sociedade hipercapitalista pós-moderna vive diante do impasse da intransponibilidade das fronteiras do concreto em face da inescapável finitude orgânica da Civilização Ocidental.

Quando Monteiro Lobato lançou no jornal Folha S. Paulo o libelo contra a exposição de Anita Malfatti, sob o título “Paranoia ou Mistificação?”, ainda havia indubitável valor artístico nas exposições, fato reconhecido pelo próprio Lobato, que admitiu o talento de Anita apesar das críticas ao seu trabalho. Entretanto, depois disso surgiram muitas outras formas de “arte”: do compositor que cria suas peças musicais derramando bolinhas de pingue-pongue sobre as cordas do piano (é a chamada “música estocástica”) ao pintor que simplesmente atira aleatoriamente jatos de tinta sobre uma tela ou então deixa que seu cachorro patinhe sobre ela; de John Cage, que em 1952 compôs a música 4’33”, ou seja, quatro minutos e meio de silêncio (desde então, todas as folhas de partitura em branco vendidas em papelarias são, na verdade, reproduções da obra de Cage) ao escultor búlgaro Christo, cuja obra-prima foi embrulhar em plástico seu xará, o Cristo Redentor do Rio de Janeiro.

Há até aquela anedota do pintor abstracionista cujos borrões de tinta estavam sendo muito elogiados em seu vernissage até que ele, constrangido, notou que um dos quadros que faziam mais sucesso estava de cabeça para baixo. Desvirou o quadro e… tomou tremenda vaia, pois agora a obra tinha-se transformado num amontoado de borrões sem significado nenhum!

 

 

A arte pós-moderna tem exemplos mais grotescos do que esses, como o do escultor que expõe cadáveres de animais vitrificados ou o do compositor que acrescenta ruídos de digestão e excreção às suas “músicas”.

A questão é: se qualquer objeto, inclusive os produzidos pela natureza, como pedras e galhos de árvore, pode ser um ready made, se qualquer ruído, humano ou não, pode ser música, então chega-se à conclusão de que tudo, absolutamente tudo, é arte. Só que, quando tudo é arte, nada é arte, afinal só se pode definir algo por oposição ao que ele não é. Só sei que sou brasileiro porque sei que há no mundo argentinos, americanos, japoneses… Se a humanidade não fosse dividida em nações, se falássemos todos a mesma língua e vivêssemos todos sob o mesmo governo, faria algum sentido dizer que sou brasileiro e não argentino?

Por mais que a arte evolua (e tem de evoluir para não se tornar repetição enfadonha, mais do mesmo, como é a música “breganeja” ou os filmes de ação americanos, por exemplo), alguns critérios básicos precisam ser mantidos para que se possa distinguir entre a arte legítima, produto do talento e da técnica, e a mistificação oportunista, que explora a boa-fé das pessoas incautas e dá voz a pseudointelectuais que posam de “mentes privilegiadas”, capazes de depreender significações profundas onde a turba ignara percebe apenas sujeira e ruído. Em outras palavras, por mais que a técnica evolua, inclusive graças à tecnologia moderna, é indispensável a mão do artista; por mais que um dos objetivos da arte seja provocar estranheza, chocar, dar um soco no estômago da sociedade, algum bom gosto, alguma sutileza, alguma marca de talento astucioso precisa estar presente. Por isso, continuo fiel à definição de arte que dei no meu supracitado livro e que agora reformulo, aperfeiçoada (e tremendamente aumentada): arte é um discurso social, materialmente palpável ou não, produzido exclusivamente pelo ser humano, com ou sem o auxílio de instrumentos, usando de um talento não disponível a qualquer pessoa e mediante uma técnica adquirida (autodidaticamente ou não, intuitivamente ou não) que a maioria das pessoas não tem, com finalidade principal ou única de produzir prazer estético, isto é, por meio dos sentidos.

Trocando em miúdos, o que é produto exclusivo da natureza, como pedras, nuvens, manchas de mofo ou rabiscos de um chimpanzé, ainda que exposto numa galeria, não é arte. O que não foi criado para produzir efeito estético como função principal (como um mictório ou um carrinho de bebê) não é arte (ainda que o fabricante de mictórios ou de carrinhos tenha tido alguma preocupação estética no design do produto). O que não foi concebido pela mente humana não é arte. O que não demanda nenhum tipo de técnica ou destreza para ser feito (isto é, o que qualquer um pode fazer) não é arte. O que não demanda talento, ou mais precisamente um elevado grau das inteligências linguística (na literatura), musical (na música), espacial (nas artes plásticas) e corporal-cinestésica (na dança e no teatro), não é arte. O que só causa repulsa ou indiferença, mas nenhum prazer, não é arte.

A performance de Wagner Schwartz no MAM até pode ser tachada de obscena, e daí? Muitas obras de arte em seu tempo também o foram. (Se fere alguma lei ou direito é outra discussão.) O que me preocupa é se tal performance pode ser chamada de arte, pois hoje em dia muitas manifestações, até defecar em público, têm tentado impor-se à sociedade e conquistar seu respeito sob o pretexto de que são formas de arte, de que refletem o direito à liberdade de expressão do pensamento e da criatividade. Ou seja, hoje em dia até bosta é arte.

Viver eternamente: você quer?

Pesquisadores do Vale do Silício, na Califórnia, estudam maneiras de prolongar indefinidamente a vida humana (confira em http://g1.globo.com/fantastico/noticia/2017/09/troca-de-orgaos-e-restauracao-de-dna-podem-ser-chave-da-longevidade.html). Numa das frentes, eles tentam eliminar os fatores que provocam o envelhecimento e as doenças degenerativas e, com isso, nos manter infinitamente jovens. Como a morte é o desfecho do envelhecimento (nosso organismo é geneticamente programado para degenerar-se progressivamente até parar de funcionar), eliminar tais fatores significa em tese impedir a morte. Ou seja, promover a vida eterna.

Outra frente de pesquisa pretende, por meio da inteligência artificial, “salvar” numa espécie de backup a consciência humana em robôs para depois transplantá-la no cérebro de um clone da pessoa morta. Com isso, o falecido voltaria à vida num novo corpo igual ao que já teve e com todas as suas memórias preservadas, ou seja, com o seu eu original instalado em um cérebro novinho em folha.

Todas essas pesquisas parecem promissoras à primeira vista, afinal um dos grandes sonhos do ser humano é a imortalidade. Tanto que, se lançássemos no ar a pergunta “Quem gostaria de viver para sempre?”, quase todos levantariam a mão. Não é à toa que as religiões que têm mais seguidores são as que prometem a vida eterna após a morte ou então a reencarnação do espírito num novo corpo.

Mas, analisando a fundo essa questão, chego à conclusão de que esses pesquisadores não passam de uns nerds sem nenhuma sensibilidade social ou capacidade de reflexão filosófica. Senão, vejamos.

O planeta está superpovoado, e a população humana segue crescendo (seremos 8 bilhões de habitantes em 2030) a despeito da escassez e do esgotamento dos recursos naturais. No ritmo atual, já é possível prever um futuro próximo sombrio em termos de nossa sobrevivência como espécie. Aumentar a longevidade das pessoas só contribuiria para agravar o problema. Aliás, um dos impasses criados pelo contínuo envelhecimento da população é o colapso da previdência social, problema que já estamos vivenciando no Brasil. Como seria sustentar um contingente tão grande de idosos?

Bem, mas a ideia é que as pessoas possam viver 150, 200 anos sem ficar velhas, certo? Portanto, é de se imaginar que elas começarão a trabalhar aos 20 anos ou antes, como atualmente, e só se aposentarão por volta dos 120, 130 anos. Você topa?

Se você ama o que faz, beleza! Mas, será que a maioria das pessoas gostaria de trabalhar 100 anos para conquistar o direito ao descanso? Mesmo pessoas altamente criativas, como os artistas, acabam sentindo um certo esgotamento da inspiração com o passar dos anos. Será que, se Beethoven estivesse vivo até hoje, suas atuais composições ainda teriam a mesma qualidade? E será que ainda fariam sucesso?

Esse é o segundo ponto: a sociedade evolui não porque as pessoas evoluem, mas porque elas morrem e dão lugar a novas pessoas, com novas ideias. Uma humanidade repleta de indivíduos com mais de 100 anos seria ainda mais conservadora do que já é, e novas ideias teriam muito mais dificuldade de ser adotadas. Por sinal, o conflito de gerações seria muito mais aguerrido do que é hoje, em que pais e filhos com uma diferença de cerca de 30 anos de idade já não se entendem.

Outra coisa: imagine que alguém que nasceu no século XVIII, à época da Inconfidência Mineira, estivesse vivo ainda hoje. Quantas mudanças no mundo essa pessoa teria visto! Ela teria nascido num Brasil colônia, assistido à formação e à queda do império, e a todas as mazelas de nossa vida republicana desde Deodoro até Temer. Será que ela se adaptaria a todas as mudanças por que o mundo passou? Nascer num mundo em que o único meio de transporte terrestre era o cavalo e em que só havia luz de velas e hoje ter de lidar com internet e realidade virtual, quem conseguiria, se hoje, aos trinta e poucos anos de idade, já nos sentimos antiquados e obsoletos diante das novas tecnologias?

Além disso, a maior parte da população humana é pobre ou miserável. Seria agradável viver na penúria por várias décadas a mais? Ou será que, como sempre, só os ricos terão o privilégio da longevidade turbinada?

Outra pergunta que me ocorre: qual teria de ser o tamanho da nossa memória para vivermos tantos séculos? Embora a expectativa de vida venha aumentando ano após ano, e vivamos hoje em média muito mais do que há cem anos, o fato é que estamos programados por nossa própria biologia para viver cerca de 80 a 90 anos. Tanto hoje quanto séculos atrás, raríssimas pessoas romperam essa barreira etária. E aos 80 anos, muitas de nossas memórias já se apagaram. Se pudéssemos viver 300 anos com a mesma capacidade de armazenamento de dados na mente que temos hoje, sequer lembraríamos de quanto tempo já teríamos vivido. Ou seja, de que adianta viver muito e não lembrar da maioria das coisas que vivemos?

banner-imortalidade-572x319

Mas imagine agora que você foi contemplado com a imortalidade. Sim, a imortalidade! Aconteça o que acontecer, você jamais morrerá. Isso parece o sonho de muitos incautos, mas, na realidade, jamais morrer tem mais a ver com pesadelo. O fato é que viver cansa. Mesmo que tivéssemos um corpo eternamente jovem e saudável, após algum tempo, o mundo se tornaria enfadonho em sua mesmice, em sua constante evolução na qual, paradoxalmente, as aparências mudam o tempo todo mas a essência é sempre a mesma. Basta estudar a história para ver que, na novela da humanidade, muda o cenário, mudam os atores, mas o enredo é sempre o mesmo. E é sempre um enredo farsesco e barato, indigno de um Nobel de literatura. Como diria o Leopardo, personagem do romance homônimo de Giuseppe Tomasi di Lampedusa, “tudo muda o tempo todo para que, no fundo, nada mude”.

Disse certa vez o poeta mexicano Octavio Paz, “sabermo-nos mortais nos condena à cultura”. Se imortais fôssemos, jamais teríamos construído as pirâmides do Egito ou o Taj Mahal, jamais teríamos escrito livros, pintado telas, conquistado territórios, edificado nações, enviado sondas ao espaço, amado e odiado – numa palavra, jamais teríamos deixado qualquer vestígio de nossa existência, pois para um imortal tudo pode ser adiado indefinidamente, nada é urgente, criar não é urgente, amar não é urgente, viver não é urgente. Eu não estaria aqui escrevendo estas palavras se tivesse a eternidade toda pela frente. Poderia me dedicar a todas as carreiras que quisesse e realizar uma grande obra em cada uma delas, mas não agora, não neste milênio, pra que a pressa? Afinal, a eternidade dá uma preguiça!

-*-*-*-*-*-

Mas, sobretudo, viver para sempre é impossível porque nada durará para sempre, nem o próprio Universo. Dentro de mais alguns séculos, se continuarmos nesse andar da carruagem, a Terra será um planeta inóspito e inabitável, e por nossa própria culpa. Claro, até lá já teremos desenvolvido tecnologia para nos mudarmos para outro planeta habitável, onde reiniciaremos nossa devastação. Se esse planeta for muito longínquo do nosso atual habitat, não importa: sendo imortais, chegaríamos vivos ao destino após viajar milhões de anos-luz. O que, viajando à velocidade da luz – caso isso fosse possível sem nos desintegrarmos –, representaria uma viagem de alguns milhões de anos. O problema é encontrar o que fazer para passar o tempo durante a travessia!

O fato é que, mais cedo ou mais tarde, teríamos de enfrentar o fim. Em qualquer planeta que estejamos, um dia a estrela que ele orbita se expandirá até engolir tudo à sua volta para ao final explodir como uma supernova e quem sabe virar um enorme buraco negro do qual nada escapa – nem a consciência. Que triste fim teríamos, não?

Por isso, a vida eterna apregoada pelas religiões e agora também pela ciência é um prêmio a que só os tolos anseiam; para mim, jamais poder cerrar os olhos pela última vez é o pior dos castigos. Não sei quando vou morrer, mas a consciência de que isso acontecerá um dia, longe de ser um peso, é para mim um alento.

Tudo na natureza nasce, vive por um tempo e morre – inclusive ela própria. E mamãe natureza sempre tem razão, ela sempre faz tudo certo. Todas as vezes que o homem resolve subverter as leis naturais para satisfazer seus caprichos, ele se dá mal (taí o aquecimento global que não me deixa mentir). Portanto, viver algumas décadas, realizar o melhor que pudermos no tempo que tivermos, deixar um mundo melhor para quem vier depois de nós, esse é o melhor dos mundos – o resto, sonho de tolos e de nerds.

No labirinto da linguagem

A linguagem permitiu ao homem a consciência, a memória e a imaginação, mas também deu origem às neuroses

Sigmund Freud, o pai da psicanálise, dividiu as patologias mentais em dois grupos: as psicoses, de origem orgânica, distorcem o senso de realidade a ponto de levar o paciente a ser classificado como louco; e as neuroses, de natureza emocional, causam transtornos e infelicidade, mas não afetam a percepção da realidade. Segundo Freud, o que causa uma neurose não é o fato em si, mas o modo como o concebemos, a representação mental que fazemos da realidade.

Se a neurose tem a ver com representação simbólica e significação, pode-se dizer que é uma doença decorrente de sermos dotados de linguagem. O que produz o sofrimento emocional é o diálogo interior em que o eu se divide em dois e um deles “envenena” o outro com afirmações e perguntas que geram medo e insegurança.

Objetivamente falando, não há fatos bons ou maus: há fatos. Por isso, alguns, após uma tragédia, caem em desespero; outros “levantam, sacodem a poeira e dão a volta por cima”. Por isso, há pobres e anônimos felizes ao mesmo tempo que celebridades milionárias se afundam no álcool e nas drogas para fugir da realidade. Isso reforça a ideia, surpreendente para muitos, de que não vivemos no mundo real, mas numa realidade virtual criada por nossos próprios símbolos.

Sem dúvida, a linguagem trouxe vantagens ao homem. Afinal, permite a consciência, a memória e a imaginação. E é por isso que produz neuroses: recém-nascidos ou animais não criam as próprias neuroses, podem no máximo ser induzidos a elas.

Um animal confinado ou privado de sono pode desenvolver comportamentos neuróticos (automutilação, atos repetitivos, etc.), mas só o homem é capaz de sentir medo dos próprios pensamentos. Isso não quer dizer que animais não pensem. Eles fazem representações mentais, planejam, sonham, imaginam… Mas sua atividade psíquica, segundo mostram pesquisas científicas, está focada no aqui e agora. Ante ameaças, antecipam mentalmente ações que ainda não realizaram (atacar, fugir, etc.), tomam decisões (por qual lado ir) e aprendem com a experiência, o que equivale a arquivar informações e esquemas cognitivos no cérebro sob a forma de representações simbólicas. Mas é pouco provável que criem mentalmente situações que não existem – os animais não são bons ficcionistas. Menos provável ainda é que acreditem naquilo que imaginaram, confundindo realidade objetiva com representação simbólica. Pois é isso que faz um neurótico.

Embora estejamos falando de uma patologia, no âmbito da saúde mental o limite entre normalidade e distúrbio não é questão de presença ou ausência de sintomas, mas de gradação. Todo mundo tem momentos de melancolia; o que caracteriza a depressão é a frequência e intensidade desse estado de espírito.

O desenvolvimento da linguagem nos permitiu um salto evolutivo em relação às demais espécies porque tornou possível o “pensamento desconectado”. O termo, criado por neurocientistas, indica a capacidade de concebermos mentalmente situações passadas, futuras ou hipotéticas, por mais fantasiosas ou absurdas que sejam – em resumo, desconectadas da realidade efetiva, do aqui e agora.

É o que nos permite fazer abstrações e aplicar a novas situações um esquema abstrato deduzido de outras situações análogas, anteriormente experimentadas. Esse pensamento é chamado What-If Thought (pensamento “e-se…?”). Diante de uma ocorrência qualquer, somos capazes de formular perguntas e hipóteses do tipo: “O que aconteceria se…?”, “E se eu fizesse isso em vez daquilo?”.

Essa habilidade de visualizar prospectivamente o desenrolar de uma situação é o que nos permite criar de projetos de engenharia a romances policiais. Mas, na neurose, o pensamento desconectado formula cenários um pouco diferentes, algo como: “Será que isso vai acontecer? E se acontecer?”. Combinado a uma baixa autoestima, que leva o indivíduo a crer no pior, esse padrão de pensamento supervaloriza a exceção, num misto de fatalismo e pessimismo.

neurose1

Código artificial

Portanto, há uma distância entre as coisas em si e o significado que damos a elas. Até porque as coisas em si não têm significado; a ideia de que algo significa (isto é, representa, substitui) algo só é concebível por uma cabeça pensante. Só seres complexos como nós são capazes de perceber e, a seguir, conceber o mundo (pedras não veem nem ouvem, muito menos criam representações da realidade). Se nossa percepção já é falha, dadas as limitações da biologia, nossas concepções são ainda piores, já que resultam não só do uso de um sistema de símbolos criados por nós mesmos, mas da interferência de nossas experiências e vivências, o que inclui os valores culturais introjetados em nossa formação sem que tenhamos consciência.

Como diria Platão, vivemos no interior de uma caverna e tudo o que vemos são vultos da realidade exterior projetados na parede. A diferença é que, para ele, habitamos o mundo das coisas, mas a Verdade está no mundo das ideias, ao qual só se chega pelo pensamento. Já para a ciência moderna, vivemos no mundo das ideias – isto é, de signos, linguagem –, e a verdade, inatingível em si, está nas coisas. O que gera a neurose, a alucinação, a loucura, é a crença de que os signos são as coisas.

A censura ideológica

Estamos vivendo tempos estranhos e perigosos. Na era da pós-verdade, opiniões valem mais do que fatos, e posições divergentes da ideologia dominante, isto é, ditada por certos grupos de influência, são prontamente criminalizadas. Hoje, a democracia  nos permite pensar e dizer o que quisermos, desde que pensemos e falemos “dentro de certas caixinhas”, a mais famosa das quais atende pelo nome de “politicamente correto”.

Atualmente, a ciência está desacreditada. A opinião arrogante de políticos populistas vale mais do que o parecer de dezenas, centenas de especialistas. Basta ver o modo como Donald Trump trata a questão do aquecimento global e das mudanças climáticas – que para ele não passam de invenção dos chineses para arruinar a economia americana.

A formatação das ideias é promovida hoje em dia tanto pela esquerda quanto pela direita, e tanto em regimes de força como Cuba, Venezuela e Coreia do Norte quanto em sociedades supostamente democráticas, como os Estados Unidos e o Brasil.

Discutir temas polêmicos ou delicados, como os que envolvem drogas, aborto, religião, homossexualidade, racismo ou diversidade cultural, longe de ser algo salutar para o convívio social e o aperfeiçoamento democrático, como já foi no passado, tornou-se algo extremamente perigoso: basta ferir a suscetibilidade de algum grupo de pressão – as chamadas “minorias” – para ser colocado na berlinda e exposto à execração pública, além de sofrer consequências mais graves, como demissão, processo judicial, etc.

Não há como negar que o acesso à voz e à visibilidade por parte de grupos que anteriormente não eram sequer levados em conta representou um grande progresso social, assim como a luta por direitos iguais, uma questão indiscutível de justiça, só pode ser digna de aplauso. O problema é quando os papéis se invertem, e o grupo oprimido se torna opressor. Toda vez que se rompe o equilíbrio dos contrários, e um dos lados subjuga o outro, o resultado é violência, seja ela física ou simbólica.

22667658

Terça-feira passada, dia 8, o engenheiro de software americano James Damore acabou demitido do Google por ter publicado em seu blog pessoal um artigo em que justifica a ausência de diversidade de gênero (leia-se “reduzido número de mulheres”) no Vale do Silício por diferenças biológicas entre os dois sexos. Sua publicação foi considerada “uma asneira sexista”, que dissemina “estereótipos de gênero”, dentre outras tantas críticas.

Em seu artigo, Damore afirmou que “as opções e as capacidades de homens e mulheres divergem, em grande parte devido a causas biológicas, e essas diferenças podem explicar por que não existe uma representação igual de mulheres (em posições) de liderança”.

Segundo o engenheiro, aptidões naturais levam os homens a ser programadores de informática enquanto as mulheres tendem mais “aos sentimentos e à estética do que às ideias”, o que as levaria a escolher carreiras nas áreas “social e artística”.

A argumentação de Damore, considerada sexista pela imprensa americana, reacendeu a polêmica sobre a existência de uma certa cultura machista no universo da tecnologia, majoritariamente composto por homens. No próprio Google, 69% dos funcionários são homens, proporção que chega a 80% na área tecnológica; no Facebook, 73% dos cargos de chefia eram ocupados por homens em 2016. Na Apple, o percentual chega a 63%.

A questão é que a diversidade de aptidões entre homens e mulheres é objeto de discussão até no meio acadêmico, em que, de um lado, especialistas das ciências biológicas, como neurocientistas, apresentam dados concretos, obtidos em experimentos controlados e com a utilização de alta tecnologia, mostrando as diferenças entre o cérebro masculino e o feminino e suas repercussões na realização das mais diversas atividades, e, de outro, estudiosos das ciências sociais argumentam que a histórica preferência das mulheres por carreiras humanísticas é fruto de condicionamento social e não de pendor genético.

Pelo menos, já está provado cientificamente que homens e mulheres têm habilidades distintas, o que, teoricamente, impactaria na escolha da profissão. Qualquer um sabe que as mulheres são em geral mais habilidosas que os homens na realização de tarefas que exijam coordenação motora fina (além, é claro, de terem mãos mais delicadas), o que faz com que as indústrias prefiram ter mulheres na linha de montagem de equipamentos minúsculos, por exemplo. A mesma ciência demonstra que os homens têm geralmente mais facilidade para lidar mentalmente com sistemas tridimensionais, que envolvam as noções de espaço e profundidade, como a concepção de estruturas arquitetônicas ou a operação de veículos. (Um amigo meu costuma comentar maldosamente que é fácil descobrir num estacionamento quais carros pertencem a mulheres.) Portanto, não se pode excluir por princípio a hipótese de que a aptidão lógica e matemática também esteja ligada a fatores sexuais.

evhumana3-size-598

Todos sabemos que bilhões de anos de evolução biológica moldaram diferentemente os cérebros do homem e da mulher em função das próprias necessidades de sobrevivência da espécie. Foi a tarefa de caçar o que fez no macho desenvolverem-se os músculos, assim como a delicadeza da fêmea era essencial no cuidado da prole. Essa divisão primitiva de tarefas, que partilhamos com muitas outras espécies animais, certamente moldou também nossas capacidades cerebrais.

A ideia de que os homens são mais agressivos, decididos, pragmáticos, lógicos, materialistas, enquanto as mulheres são mais sensíveis, carinhosas, atenciosas, delicadas, místicas, é, sem dúvida, um estereótipo. Mas os estereótipos, assim como os preconceitos, nascem da observação de certas tendências que se repetem. Dito de outro modo, todo estereótipo tem um fundo de verdade. O erro está na generalização. Há homens sensíveis e mulheres com instinto de liderança. Há decoradores e engenheiras, bailarinos e jogadoras de futebol. Mas que há um predomínio masculino nas profissões “tecnológicas”, assim como uma maior presença feminina em áreas como Letras, Pedagogia, Psicologia e Fonoaudiologia, é um fato inegável. Se é produto de nossa biologia ou de nossa cultura patriarcal, trata-se de um ponto ainda em aberto, mas as pesquisas nesse campo avançam sem parar, e em breve deveremos ter uma resposta definitiva.

De todo modo, defender qualquer das duas correntes é legítimo, já que a própria ciência ainda não bateu o martelo. O problema é que, nos dias de hoje, a ciência, mesmo com seu método lógico, sistemático e abundantemente provido de evidências concretas, nada pode contra a ideologia, essa tapa que se tenta pôr nos olhos das pessoas para que vejam apenas a parte da realidade que interessa a certos grupos que elas vejam. Pouco importa que as geleiras estejam derretendo, o nível dos oceanos subindo e ilhas paradisíacas já estejam desaparecendo do mapa; tudo não passa de invenção dos chineses!

As razões da desigualdade entre ricos e pobres, entre a Europa e a África, entre homens e mulheres, entre gays e héteros, nada disso pode ser livre e democraticamente discutido, mesmo que à luz da ciência, quando o debate é sombreado pelo medo da represália, pela censura ideológica, pela ameaça da excomunhão moral, versão moderna da Inquisição. Não importa quantas evidências você tenha em favor de um argumento; se ele consta no index das opiniões não autorizadas pela patrulha do politicamente correto, é melhor calar-se para preservar sua paz de espírito – e seu pescoço!

Ética e moral são a mesma coisa?

Nesta semana, respondo à pergunta de um assíduo leitor desta coluna. Edilson Zafira de Sousa, de São Paulo, questiona:

Qual é a etimologia de ética e de moral? São sinônimas?

“A ética está ligada à filosofia. A moral está ligada à religião.” Está correta essa definição?

Embora no linguajar corrente ambos os termos sejam utilizados como sinônimos – e a razão disso explico mais abaixo –, eles têm diferentes significados. “Moral” deriva do latim mores, “usos, costumes”, e corresponde ao conjunto das práticas toleradas e mesmo recomendadas por uma sociedade a seus membros – os chamados “bons costumes”. Portanto, moral é algo aceito como normal pela coletividade, seja um povo inteiro ou uma comunidade restrita (as Forças Armadas, a Igreja Católica, um determinado colégio).

A moral é fruto de uma convenção social e, por isso mesmo, muda com o passar do tempo e de uma sociedade para outra. Muitas práticas comuns hoje em dia, como usar biquíni na praia, já foram noutros tempos consideradas imorais. O topless ainda é visto como atentado ao pudor pela maioria dos brasileiros, mas em lugares como Ibiza (Espanha) e Saint-Tropez (França) é prática normal e corrente.

Como se pode ver, a moral é relativa e está intimamente ligada à cultura, embora, para os membros da comunidade que a adotam, tenha valor de verdade indiscutível.

A ética, por outro lado, é a especulação filosófica a respeito da moral e dos costumes. Derivada do grego éthos, “modo, jeito de ser, costume”, a ética busca valores universais, como o bem comum. Para Sócrates, o segredo do bem viver é viver com sabedoria, algo que só se atinge pelo autoconhecimento. Já Aristóteles, em sua Ética a Nicômano, afirma que somos o produto de nossas escolhas. Cada um tem a liberdade de fazer o que quiser, mas, se todos fizerem isso, a convivência social se torna impossível. Portanto, a reflexão filosófica visa responder à pergunta: o que posso ou não posso, devo ou não devo fazer se quiser viver em paz comigo mesmo e com os outros? A resposta parece ser a chamada Regra de Prata: “não faça aos outros o que não quer que os outros lhe façam”. E que pode ser complementada pela Regra de Ouro, ensinada por Jesus: “faça aos outros o que quer que os outros lhe façam”. Ou, simplesmente, “amai-vos uns aos outros”. Sendo uma reflexão filosófica, guiada pois pela razão, a ética pode até mesmo confrontar regras morais vigentes por considerá-las ultrapassadas ou injustas. A ética reflete sobre o bem comum, o bem da coletividade, ao passo que a moral disciplina o comportamento individual.

Mas, se, na teoria, ética e moral são coisas diferentes (a ética seria o estudo filosófico da moral), na prática elas se confundem, pois é comum usarmos o nome de uma ciência para designar o próprio objeto dessa ciência. É assim que “economia” é tanto o conjunto dos bens e recursos de uma sociedade quanto a ciência que estuda a circulação desses bens e recursos; “história” é tanto o conjunto dos fatos passados de uma sociedade quanto a disciplina que estuda esses fatos.

Portanto, é possível falar em moral católica ou em ética empresarial como códigos de conduta a ser seguidos. Na verdade, a sociedade ocidental, que por séculos viveu dominada pela ideologia religiosa, ainda atrela, mesmo que inconscientemente, a moral secular aos preceitos do Cristianismo, por sua vez herdados do Judaísmo. É nesse sentido que muitos setores da nossa sociedade veem como imoralidade a nudez em público ou o homossexualismo.

É preciso lembrar, no entanto, que nem tudo que é ético é estritamente moral, assim como nem tudo o que é legal é moral ou ético. Furar fila não é ilegal, mas não é moral, pois contraria os ensinamentos que todos deveríamos trazer do berço, nem tampouco é ético, já que ninguém gosta de ter seu direito violado. Mentir é geralmente visto como atitude reprovável, logo imoral, mas, e se mentimos para salvar uma vida? Não seria algo perfeitamente ético e mesmo louvável?

Portanto, ética e moral não têm necessariamente a ver com fé religiosa, embora na maioria das sociedades ainda seja a religião a principal referência do bom comportamento. Sobretudo a ética busca o justo, o que garanta a harmonia social.

Nesses nossos tempos em que a ética parece andar tão distante da política, em que basta que um gesto não seja ilegal para que seja considerado moral, recordar o significado dessas duas palavras pode ser de algum proveito.