sábado, 18 de março de 2023

ChatGPT: tecnologia, limitações e impactos

Departamento de Ciência da Computação 
Universidade Federal de Minas Gerais
Departamento de Ciência Política 
Universidade Federal de Minas Gerais
Faculdade de Ciências Sociais 
Universidade Federal de Goiás

A chegada de uma nova ferramenta tecnológica de diálogo em novembro de 2022, chamada ‘ChatGPT’, trouxe deslumbramento, por um lado, e preocupação, por outro. Projetado para simular conversação humana, em resposta a solicitações ou perguntas, o ChatGPT gera conteúdos sintéticos aparentemente convincentes, mas que podem estar incorretos. Assim, é preciso conhecer o alcance dos impactos sociais e políticos que a nova tecnologia reserva e criar uma regulamentação que permita proteger a sociedade de possíveis consequências adversas.

ILUSTRAÇÕES: RAFAELA PASCOTTO

Em um artigo publicado na revista Nature em 2020, destaca-se uma observação que se aplica bem à chegada da nova onda de tecnologias de inteligência artificial (IA), popularizada pelo surgimento do ChatGPT (ferramenta de diálogo) no fim de 2022. Diz a autora: não pergunte se a IA é boa ou justa. A questão é mais ampla e deveria buscar explorar como a IA está mudando as relações de poder.

Essa pergunta se aplica diretamente ao ChatGPT. Para entender o impacto dessa tecnologia, além do deslumbramento inicial que capturou a imaginação das pessoas, são necessários alguns conhecimentos multidisciplinares. É importante conhecer não apenas a arquitetura tecnológica desses ‘chatbots’ como também saber interpretar o significado dessas ferramentas, decidir como devem ser aplicadas e, principalmente, em que mundo queremos viver com esses seres tecnológicos.

Portanto, precisamos contar com conhecimento de especialistas de vários campos da ciência, engenheiros da computação, pesquisadores das ciências sociais, das humanidades e do direito. Todos têm a contribuir.


Fundamentos da nova ferramenta


Os sistemas usados no processamento de linguagens naturais são conhecidos como modelos de linguagem. A definição clássica de um modelo de linguagem é uma distribuição de probabilidades sobre sequências de símbolos ou palavras. Embora conceitualmente um modelo de linguagem seja um objeto simples, na prática a atribuição de probabilidades significativas a todas as sequências de símbolos ou palavras é complexa e requer habilidades linguísticas extraordinárias e conhecimento da realidade. Para isso, esses modelos são treinados com grandes massas de dados textuais.

Para calcular a distribuição de sequências de símbolos ou textos, são usados modelos generativos, conjuntos de algoritmos que visam aprender a distribuição real de dados para então gerar probabilidades de novos textos com algumas variações. Como nem sempre é possível aprender a distribuição real dos dados, procura-se modelar um padrão que seja o mais próximo possível da distribuição real. Para aprender uma função aproximada de distribuição de probabilidades dos dados reais, são usadas redes neurais (modelo computacional baseado em unidades chamadas de neurônios artificiais, conectadas entre si para transmitir sinais).

O desenvolvimento de IAs baseadas em aprendizado de máquina (machine learning) já ocorre há algumas décadas. Quando o cientista da computação alemão Joseph Weizenbaum (1923-2008) criou, entre 1964 e 1966, o algoritmo Eliza, contribuiu com aspectos teóricos para o processamento de linguagem natural e construiu a percepção sobre os impactos dessas tecnologias na sociedade. Ao ver sua secretária no Instituto de Tecnologia de Massachusetts (MIT), nos Estados Unidos, fazer confidências para Eliza, mesmo sabendo que se tratava de um programa de computador, Weizenbaum percebeu o poder dessa tecnologia.










Ao ver sua secretária no Instituto de Tecnologia de Massachusetts (MIT), nos EUA, fazer confidências para Eliza, mesmo sabendo que se tratava de um programa de computador, Weizenbaum percebeu o poder dessa tecnologia

Relação entre humanos e máquinas

A interação entre humanos e máquinas inteligentes implica relações de poder e enquadramento da ação humana na sociedade. Weizenbaum dedicou-se a discutir o poder político e social dessas tecnologias, apontando que, em alguns casos discutíveis, caberia à sociedade estabelecer o controle daquilo que deveria ou não ser levado adiante.

O GPT-3 (Generative Pre-trained Transformer) é um modelo de linguagem autorregressivo de terceira geração, que usa o aprendizado profundo para produzir textos semelhantes a textos gerados por humanos. É um sistema computacional projetado para gerar sequências de palavras, códigos ou outros símbolos, a partir de uma fonte de entrada chamada ‘prompt’. O modelo de linguagem é treinado em agigantados conjuntos de dados, compostos de textos extraídos da Wikipedia, livros e textos coletados na internet, além de arquivos de códigos de programas obtidos no repositório público do Github, que costuma compartilhar softwares de código aberto.

Em novembro de 2022, a empresa de pesquisa em inteligência artificial sem fins lucrativos OpenAI anunciou sua nova ferramenta de processamento de linguagem natural, o ChatGPT, um chatbot projetado para simular conversação humana, em resposta a solicitações ou perguntas. ChatGPT é um modelo grande de linguagem (Large Language Model – LLM), com 175 bilhões de parâmetros, treinado em uma imensa base de dados, capaz de aprender de forma autônoma e produzir textos sofisticados, aparentemente inteligentes. Os parâmetros são chave para os algoritmos de aprendizado de máquina, pois representam aquilo que é aprendido pelo modelo com os dados de treinamento.

A inteligência artificial generativa descreve algoritmos que podem ser usados para gerar novos conteúdos, incluindo textos, áudios, imagens, vídeos, códigos e simulações. Modelos generativos de linguagem, como o ChatGPT, ou de imagens, como o DALL-E, são capazes de criar textos e imagens sintéticos por amostragem condicional do modelo, dada uma solicitação escrita por humanos ou por outros ‘bots’.

Esses modelos são treinados para corresponder à distribuição de conteúdo gerado por humanos, com resultados que mostram, em muitos casos, a incapacidade dos humanos de distinguir os conteúdos sintéticos produzidos por máquinas. Embora os conteúdos sintéticos, como textos, artigos ou mesmo imagens, pareçam convincentes, é importante enfatizar que são criações fictícias dos algoritmos que podem estar incorretos factualmente. Apesar dos avanços recentes dos modelos de linguagem, existem sérias limitações que precisam ser analisadas.





Embora os conteúdos sintéticos, como textos, artigos ou mesmo imagens, pareçam convincentes, é importante enfatizar que são criações fictícias dos algoritmos que podem estar incorretos factualmente

Limitações do modelo

As respostas do ChatGPT nem sempre estão corretas. Na verdade, muitas vezes, acontece o que é chamado de alucinação – uma resposta da ferramenta de inteligência artificial que não parece ser justificada por seus dados de treinamento. Abordar a veracidade dos resultados do ChatGPT é um grande desafio de pesquisa, pois a ferramenta não oferece referências ou links como fontes de informações para verificar a veracidade do resultado.

As respostas do ChatGPT nem sempre estão corretas. Na verdade, muitas vezes, acontece o que é chamado de alucinação – uma resposta da ferramenta de inteligência artificial que não parece ser justificada por seus dados de treinamento


O perigo é que o usuário não consegue saber quando a resposta do ChatGPT está incorreta, a menos que já conheça a resposta correta.

Assim, um aspecto preocupante com a rápida popularidade e adoção de ferramentas como o ChatGPT é a falta de transparência dessas tecnologias. Os conjuntos de treinamento, a origem dos dados, os processos de rotulação de dados e imagens e os algoritmos usados não estão disponíveis publicamente. Explicabilidade, interpretabilidade e inteligibilidade são conceitos essenciais para promover compreensão, segurança e confiança no uso de algoritmos de inteligência artificial e do ChatGPT – sobretudo, em domínios de ‘alto risco’, como a medicina.

Há necessidade de estudos e pesquisas sobre os riscos que o ChatGPT representa para a sociedade e para cada de um nós. São múltiplas as ameaças em potencial, que incluem vieses discriminatórios, estereótipos, desinformação, violação de privacidade e concentração de poder em poucos grupos econômicos.

São múltiplas as ameaças em potencial, que incluem vieses discriminatórios, estereótipos, desinformação, violação de privacidade e concentração de poder em poucos grupos econômicos

Considerando que as tecnologias de inteligência artificial generativa podem ter presença significativa na educação e na ciência, é preciso desenvolver mecanismos e regras de responsabilização, para evitar o uso fraudulento e malicioso dessas ferramentas. A China, por exemplo, tem criado mecanismos de regulação, que exigem que conteúdos sintéticos, em texto, imagem ou vídeo, estejam visivelmente rotulados como tais para os usuários.


Impactos sociais e políticos 

São muitas e diversas as consequências sociopolíticas dessas tecnologias. Há, em primeiro lugar, uma forte preocupação com os impactos que tais dispositivos podem ter sobre o mercado de trabalho, uma vez que mais funções e ocupações podem ser vistas como obsoletas, demandando transformações profundas nesse universo. A própria ideia do que é trabalho e a clássica distinção entre mão de obra manual e mão de obra intelectual veem-se amplamente desafiadas.

Há, em segundo lugar, uma forte preocupação ética sobre autoria e plágio. Tecnologias de Inteligência Artificial generativa podem borrar ainda mais a ideia de autoria, materializando complexas tramas intertextuais, que são apropriadas por atores diversos. E elas borram autoria em duas direções: primeiro, porque se apropriam de fragmentos e ideias de outros autores sem crédito ou remuneração; segundo, porque facilitam que pessoas se apropriem das ideias de outras e das próprias novas construções como se fossem suas, impedindo a explicitação do cruzamento de vozes que constitui os discursos.

Há, em terceiro lugar, o risco de enfraquecimento de instituições tradicionalmente vinculadas à produção de informações e conteúdos. Institutos de pesquisa, universidades e meios de comunicação podem sofrer grandes abalos não apenas de receitas, mas também de legitimidade pública, quando pensamos nas consequências de longo prazo dessas tecnologias.

Observa-se, em quarto lugar, a possibilidade de enrijecimento de uma fonte privada de informação, que é potencialmente enviesada e raramente submetida a questionamentos políticos. Teríamos, assim, novos oráculos técnicos em quem se confia piamente, mesmo que a realidade indique o contrário. Confiança essa que pode retroalimentar formas excludentes de organização social, como a pesquisa em IA tem demonstrado de forma sistemática e consistente.

Poderíamos continuar elencando possíveis impactos e desafios. Interessa-nos, contudo, chamar a atenção para o fato de muitos deles serem atravessados por um mesmo e macroprocesso de transformação daquilo que cientistas sociais chamam de esfera pública. Trata-se de um âmbito discursivo fluido e abstrato, em que questões de relevância pública ganham existência comum e são processadas por atores a partir de diferentes perspectivas.

A esfera pública é essencial à democracia e está ancorada em ecossistemas comunicacionais que se transformam historicamente, mas que dependem de nossa capacidade de produzir sentidos em coletividade. Sentidos esses que são tensos, controversos e disputados, mas que se referem a um terreno comum da política.

Tecnologias de Inteligência Artificial generativa afetam o ecossistema comunicacional, promovendo reestruturações que alimentam desafios colocados às democracias. Um desses desafios importantes tem a ver com a capacidade de cidadãos serem ouvidos pela comunidade política. Muito da teoria democrática enquadrou essa questão a partir da ideia de liberdade de expressão. Afinal, em contraposição a monarquias absolutistas ou a regimes autoritários de natureza diversa, as democracias precisavam garantir direitos fundamentais básicos, incluindo a possibilidade de pensar, acreditar e 

dizer o que se pensa.




Tecnologias de Inteligência Artificial generativa afetam o ecossistema comunicacional, promovendo reestruturações que alimentam desafios colocados às democracias

Pouco a pouco, teorias democráticas fizeram um movimento no sentido de reconhecer que não bastava poder se expressar, era fundamental ser ouvido e considerado. Isso se torna ainda mais evidente, em contextos nos quais há muita possibilidade de fala, mas poucas chances de ser ouvido. A abundância comunicativa das mídias digitais saturou a esfera pública de vozes, deixando os ouvidos ainda mais raros e escassos para o processamento de todas elas. É nesse sentido, que as teorias democráticas têm enfatizado a necessidade de assegurar formas institucionais e procedimentais de escuta para que cidadãos sejam de fato escutados.

Democracia em risco?

Mas o que tudo isso tem a ver com a IA generativa do ChatGPT e similares? Tais tecnologias afetam o contexto de produção de fala e escuta, alterando os regimes de visibilidade que permitem pensar a escuta democrática. Num cenário de profusão de vozes, essas tecnologias tendem a se tornar dispositivos de vocalização mais potentes, recebendo mais atenção que outras fontes e, de certo modo, abafando-as. Podem tornar-se, nesse sentido, condensadores de perspectivas, dificultando que vozes e opiniões alternativas venham à tona.

Além disso, essas tecnologias podem tornar mais complexa a responsabilização por falas, o que dificulta a regulação democrática da expressão. O que acontece, por exemplo, se tais dispositivos começam a reproduzir discursos de ódio? Quem deve ser responsabilizado por isso? Como lidar com uma esfera pública tomada por sínteses linguageiras que podem não expressar opiniões de grupos específicos? E se tais sínteses se tornarem dominantes e convencerem as pessoas de visões e desejos que não tinham a priori? Contribuirão elas para a desmobilização de grupos que reivindicam mudança? Poderão elas alimentar revoltas? Como elas alterarão as atividades de lobby político? Em suma, que consequências políticas podem ter esses atos de fala, já que discursos são, em si, formas de ação? E, como a aparente despersonalização do dizer pode afetar as relações políticas em uma democracia?

Essas questões dizem respeito a transformações estruturais por que têm passado os regimes políticos em um contexto de crescente adoção de tecnologias de IA para tomadas de decisão diversas. A IA generativa talvez seja a ponta de um iceberg massivo, mas que tem a vantagem de, pelo menos, chamar a atenção para a presença e as possíveis consequências da IA nas sociedades contemporâneas.

Próximos desafios

Uma nova mudança estrutural da esfera pública desafia os regimes democráticos vigentes. São visíveis os problemas com bolhas e câmaras de eco que persistem em plataformas de mídias sociais, como Twitter, Facebook ou TikTok. Tecnologias como ChatGPT proporcionam potencialmente um controle do que se fala e do que se ouve na esfera pública, sem a necessidade de editoriais ou controle do conteúdo.

São novas perspectivas que surgem da conveniência para o usuário de uma tecnologia como essa para ter a informação quase que em tempo real, sem intermediações, que não as dos algoritmos, e sem requerer formas de aprendizado pelo que se ouve e fala. Aprendizado esse que passa a ser exercido automaticamente por meio de algoritmos que fazem por nós, em muitas situações, escolhas que influenciam a vida das pessoas.

O futuro reserva os desafios de compreender o alcance das consequências dessas ferramentas no cotidiano dos cidadãos e as implicações para o funcionamento das já combalidas democracias mundo afora. O ChatGPT proporciona o controle daquilo que se fala e do que se ouve em arenas públicas cada vez mais intensamente transformadas. Mudamos o meio de fala e a audiência sem que percebamos as consequências democráticas desse processo.

John Dewey, um filósofo estadunidense do século 20, defendia que sociedades democráticas requerem formas de aprendizado plural e participativo para que valores como equidade e liberdade prosperassem. Discursos, falas e audiências plurais seriam essenciais para o funcionamento de regimes democráticos. Democracia requer formas de convivência e conhecimento humanos.

O controle do discurso que emerge com as IAs generativas põe em xeque a capacidade humana de discutir democraticamente os problemas públicos e suas soluções. Assim, tecnologias disruptivas como o ChatGPT requerem mecanismos de responsabilização de inteligências artificiais que emergem em diversos campos do conhecimento. São várias as discussões que surgem, tais como se inteligências artificiais podem ser juridicamente responsabilizadas, cabendo essa responsabilidade a empresas ou designers dessas tecnologias.

Da mesma forma, que mecanismos de regulação devem emergir para lidar com tecnologias disruptivas e quais mecanismos de transparência devem ser assegurados sobre bases de dados, modelos de treinamento e resultados?

Os desafios contemporâneos são enormes. Resta a governos, parlamentos e sistemas judiciais criarem parâmetros e limites, não com base apenas em aspectos éticos, mas, principalmente, sobre as consequências sociais e políticas de tais tecnologias. Para que as tecnologias digitais sejam usadas com responsabilidade é necessário estabelecer políticas e regulamentações para proteção da sociedade contra consequências sociais adversas.


https://cienciahoje.org.br/artigo/chatgpt-tecnologia-limitacoes-e-impactos/













domingo, 9 de junho de 2019

VOCÊ É UM(A) PROFESSOR(A) CONECTADO(A)?



Agora não tem mais jeito, não adianta fugir, as ferramentas digitais chegaram para ficar! Elas impulsionam a aprendizagem e são capazes de apoiar a aprendizagem de crianças, jovens e adultos ao transformar algumas práticas pedagógicas. Essas ferramentas se tornaram tão essenciais que a Base Nacional Comum Curricular (BNCC), que norteia a construção do currículo da Educação Básica, tornou o mundo digital uma competência de ensino que deve atravessar o currículo de todas as disciplinas, enfatizando seu uso reflexivo e ético.
O segredo está muito mais no “como usar” do que de fato em “o que”. É importante que o educador determine o objetivo e a finalidade para inserir os programas digitais em suas aulas e atividades. Quando falamos em ferramentas digitais, não estamos nos restringindo apenas aos aplicativos ou plataformas que podemos usar. 
As ferramentas servem tanto para sala de aula, quanto para a gestão de tarefas escolares. 
Com essas ferramentas é possível criar avaliações, desenvolver atividades para casa, criar cruzadinhas, quiz, montar planilhas... Além de serem ferramentas de colaboração que os alunos podem utilizar de forma simultânea, eles podem desenvolver habilidades de leitura, escrita, raciocínio lógico e matemático, além de trabalhar de uma forma natural com a colaboração e empatia.

Nesses novos tempos, o papel do professor diante de novas tecnologias é imprescindível, ele tornou-se o elo entre ensino/aprendizagem, ou melhor, ele facilita a aquisição do conhecimento a partir das ferramentas tecnológicas.

Fazer parte de uma nova perspectiva no ensino mundial e aperfeiçoar e me qualificar é o que todo educador deve sempre buscar. Através do Bootcamper level 2 consegui de forma colaborativa aprimorar e aprender, fazer novas perguntas a respeito do meu papel como educador. Novas perguntas surgirão com certeza e buscarei sempre novas respostas ou novas formas de responder a mesma pergunta. 
Agradeço a equipe do AMPLIFICA pelo belíssimo curso de aperfeiçoamento das ferramentas do Google for Education.
Agradeço também a todos os colegas de turma que fizeram parte desse curso.


 Quero agradecer: @amplificaoficial #bootcampamplifica


Valeu!!!


VOCÊ É UM(A) PROFESSOR(A) CONECTADO(A)?



terça-feira, 7 de maio de 2019

RENASCIMENTO DA CIÊNCIA PSICODÉLICA


O uso de substâncias com efeitos psicodélicos ocorre, provavelmente, há milhares de anos. Com a popularização desses compostos, no século 20, seu consumo se disseminou. Percebidas por muitos anos apenas como drogas de abuso, essas substâncias voltaram recentemente a ser estudadas. Mas é preciso acabar com o preconceito que as cerca e desburocratizar a pesquisa, de modo a definir com mais clareza seus riscos reais e seus possíveis benefícios para o tratamento de transtornos que causam sofrimento.

Substâncias com efeitos psicodélicos são consumidas em rituais místicos, religiosos e indígenas há, provavelmente, milhares de anos. No século 20, com a popularização dessas substâncias, seu consumo passou a ser mais disseminado.
Muitos compostos psicodélicos são encontrados na natureza, como a N,N-dimetiltriptamina (DMT), presente nas folhas da planta Psychotriaviridis, a psilocibina dos cogumelos do gênero Psilocybe, a mescalina, encontrada no cacto peiote (LophophoraWilliamsii), e a 5-metoxi-dimetiltriptamina (5-MeO-DMT), derivada da secreção produzida pelo sapo Bufo alvarius.
A dietilamida do ácido lisérgico (LSD) é o principal psicodélico de origem sintética. Construído a partir do ácido lisérgico proveniente do fungo Clavicepspurpurea, o LSD foi criado pelo químico suíço Albert Hofmann (1906-2008) em 1938. A psilocibina foi também isolada por Hofmann em 1958. A mescalina, usada em cerimônias na Igreja Nativa Americana (Native American Church), foi extraída do cacto peiote em 1989.


Embora diversas substâncias sejam capazes de promover alterações de percepção e consciência, para que um composto seja considerado um ‘psicodélico clássico’, ele deve ser capaz de se ligar e ativar um tipo especial de proteína no cérebro, um receptor para o neurotransmissor serotonina conhecido pela sigla 5-HT2A






Acredita-se que a ativação do receptor 5HT2Aem neurônios piramidais do córtex cerebral seja o fator responsável pelas distorções sensoriais, visões e fenômenos como expansão da consciência e dissolução do ego, todos eles associados à experiência psicodélica.
No Brasil, uma das principais formas de consumo de psicodélicos de ocorrência natural é a ingestão da Ayahuasca, um chá utilizado em rituais místico-religiosos por mais de 70 grupos indígenas da América do Sul e, desde 1930, por grupos religiosos, como o Santo Daime, a Barquinha e a União do Vegetal. Os efeitos descritos após sua ingestão incluem as alterações na percepção, introspecção, visões (denominadas ‘mirações’) e aumento de memórias autobiográficas.
A bebida é preparada pela fervura do cipó Banisteriopsiscaapicom as folhas da P. viridise ingerida na forma de chá. Embora o composto psicodélico dimetiltriptamina (DMT) seja proveniente das folhas usadas na mistura, os efeitos da Ayahuascadependem da interação entre os dois ingredientes. Isso porque a DMT, se ingerida sozinha, é degradada no trato gastrointestinal. A ingestão concomitante de componentes presentes no cipó, os alcaloides de β-carbolinas (como a harmina e a harmalina), previne a degradação da DMT, que atinge a circulação e chega ao cérebro, promovendo os seus efeitos tão particulares.

Era pré-proibição (1950-1960)

Apesar da data de início do interesse terapêutico por psicodélicos não ser conhecida com precisão, os anos que sucederam à descrição das propriedades psicoativas do LSD por Albert Hofmann podem ser considerados o início da ciência psicodélica moderna. Na década de 1940, terapias medicamentosas em psiquiatria eram relativamente escassas e, após a descoberta de seus efeitos psicoativos em 1943, a possibilidade do uso do LSD e de outros compostos psicodélicos no auxílio de transtornos mentais começou a ser cogitado. Além disso, sugeria-se que o uso de LSD seria capaz de resgatar memórias reprimidas e outros elementos do inconsciente, o que poderia ser útil em psicoterapias.
Na década de 1950, o laboratório Sandoz sintetizou o LSD e o distribuiu sem custo para psiquiatras interessados em testar seus benefícios. Essa atitude fez crescer o número de pesquisas. Entre as décadas de 1950 e 1960, centenas de trabalhos científicos foram publicados.
Pesquisas preliminares com pacientes com formas de depressão e ansiedade sugeriam potenciais benefícios do LSD quando administrado durante sessões de psicoterapia assistida. Da mesma forma, estudos indicavam que a terapia com LSD poderia diminuir o consumo abusivo de álcool.
Cabe mencionar, entretanto, que as pesquisas com compostos psicodélicos em meados do século 20 eram passíveis de crítica por diversos motivos. Nesse período, não era realizada a comparação entre grupos de pacientes e grupos-controle (em que indivíduos que não recebem a substância também são analisados, permitindo a avaliação do efeito placebo); a medição da ‘melhora’ do quadro dos pacientes era feita a partir de critérios totalmente subjetivos; o tamanho da amostra (número de pacientes no estudo) era pequeno para determinação de um efeito robusto; e não havia uma avaliação matemática adequada (análise estatística) que possibilitasse a comparação entre resultados. Dessa forma, embora promissoras, tais pesquisas não avaliaram de modo conclusivo o potencial terapêutico dos compostos psicodélicos.

O impacto da proibição sobre a pesquisa

Próximo à década de 1990, trabalhos científicos com mescalina, psilocibina e DMT em humanos podem ser considerados como marco histórico do renascimento da pesquisa com psicodélicos.







A partir de meados do século 20, o uso não-científico das substâncias psicodélicas aumentou consideravelmente, sobretudo em virtude de sua associação ao movimento de contracultura norte-americano. Por motivação política, muito mais do que justificativa médica ou científica, em 1970, os Estados Unidos passaram a classificar LSD, psilocibina e mescalina na categoria mais restritiva de drogas de abuso, criminalizando sua posse e seu consumo e decretando-as como desprovidas de qualquer valor terapêutico – o que certamente não se baseava em evidências científicas. A decisão norte-americana influenciou o restante do mundo e, em pouco tempo, os compostos psicodélicos foram demonizados em vários países, criando-se barreiras políticas, sociais e culturais que inviabilizaram por décadas a pesquisa de suas propriedades terapêuticas.
Próximo à década de 1990, trabalhos científicos com mescalina, psilocibina e DMT em humanos podem ser considerados como marco histórico do renascimento da pesquisa com psicodélicos. De lá para cá, o desenvolvimento de técnicas mais sofisticadas para o estudo do efeito de substâncias psicodélicas em seres humanos,
animais e células, aliado ao crescente questionamento das políticas de drogas, fez com que vivenciássemos atualmente o chamado ‘Renascimento da ciência psicodélica’.

Estudos com células e animais

A identificação de alvos moleculares foi o primeiro passo para tentar desvendar os efeitos de substâncias psicodélicas sobre nossas células. O receptor intracelular sigma-1 mostrou-se importante na modulação da resposta inflamatória ativada por DMT e 5-MeO-DMT (um composto aparentado) tanto em células especializadas do sistema imunológico quanto em neurônios.
Utilizando organoides cerebrais humanos (modelo 3D onde se recapitula em laboratório o desenvolvimento do tecido cerebral), pesquisadores de nossa equipe demonstraram que 5-MeO-DMT é capaz de regular a expressão de diversas proteínas celulares. O composto psicodélico mexe com a expressão de proteínas que controlam inflamação, além de regular também aquelas envolvidas na formação de sinapses (a base da comunicação entre os neurônios). Estudo recente publicado por um grupo da Califórnia confirmou que a DMT e outros compostos psicodélicos interferem na reorganização das sinapses, aumentando a complexidade dos neurônios.

Pesquisas em humanos

A partir de meados da década de 2000, pesquisas científicas têm voltado a comprovar o papel terapêutico de compostos psicodélicos em humanos. Em 2006, pesquisadores da Universidade do Arizona, nos Estados Unidos, descreveram o efeito benéfico da psilocibina em pacientes com transtorno obsessivo-compulsivo. Em 2014 e 2015, dois estudos realizados também nos Estados Unidos sugeriram que a administração de psilocibina seria eficaz também no tratamento da dependência por tabaco e álcool.
O efeito ansiolítico da psilocibina foi investigado ainda em pacientes com câncer. Cientistas da Universidade Johns Hopkins, nos Estados Unidos, demonstraram que uma dose de psilocibina reduziu os sintomas de depressão e ansiedade por até seis meses. Outro estudo, publicado no mesmo ano, comparou o efeito de psilocibina com a niacina (vitamina B3, usada como controle). Os pacientes com câncer que receberam o composto psicodélico associado à psicoterapia apresentaram melhoras persistentes nos sintomas de ansiedade e depressão. A psilocibina também obteve resultados promissores para o tratamento de depressão em um estudo aberto – não controlado – realizado pelo Imperial College britânico.


Pesquisadores brasileiros têm destaque no estudo de psicodélicos, principalmente da Ayahuasca. Em um estudo não controlado, a Ayahuasca proporcionou melhora significativa em pacientes com depressão após a administração de uma única dose do chá, além da ativação de áreas do cérebro relacionadas à regulação de humor e emoções.

O efeito terapêutico do LSD foi investigado em um estudo com 12 pacientes que tinham ansiedade relacionada à presença de doenças crônicas ou risco de morte. Os participantes foram submetidos a sessões de psicoterapia frequentes e, em duas ocasiões, o LSD foi administrado. Os pacientes tratados com as doses mais altas apresentaram redução de ansiedade por até 12 meses. Nenhum efeito adverso severo foi relatado pelos pesquisadores que conduziram o estudo.
Mais recentemente, em um estudo de pesquisadores das universidades Federal do Rio Grande do Norte (UFRN), Estadual de Campinas (Unicamp) e de São Paulo (USP), realizado com controle por placebo e com um maior número de pacientes, o efeito antidepressivo da Ayahuascafoi confirmado.

Uma longa jornada

É importante lembrar, porém, que os trabalhos descritos acima representam apenas o início de uma longa jornada de conhecimento até que substâncias psicodélicas voltem a ter papel na medicina. Os testes em células, organoides e animais representam, na maior parte das vezes, o primeiro passo para a descoberta dos mecanismos de ação. Os testes em humanos ocorrem em diferentes fases, quando segurança e eficácia são avaliadas. Vale apontar, ainda, que nem todas as pessoas poderiam
se beneficiar, já que, por exemplo, portadores de transtorno bipolar ou psicose podem ter o agravamento de seus sintomas com o uso de tais compostos.
Se, por um lado, as pesquisas com compostos psicodélicos estão caminhando a passos largos, por outro, os obstáculos não são poucos e incluem não apenas aqueles científicos, mas principalmente políticos e culturais. Percebidos por muitos anos apenas como drogas de abuso, há ainda o desafio de desconstruir o preconceito contra essas poderosas substâncias e desburocratizar a pesquisa. Isso permitiria maior celeridade não só em definir com maior clareza seus riscos reais, mas também qual o papel dos psicodélicos no arsenal terapêutico para o cuidado e a cura de determinados sofrimentos humanos.


Fonte:

http://cienciahoje.org.br/artigo/renascimento-da-ciencia-psicodelica/

segunda-feira, 26 de junho de 2017

Conversa sobre bactérias regada a cerveja

Conversa sobre bactérias regada a cerveja

Bate-papo descontraído sobre microrganismos benéficos ao corpo humano deu a largada para a edição brasileira do 'Pint of Science', festival internacional em que cientistas se reúnem com o público em bares, restaurantes e cafés para falar sobre temas científicos.


Pesquisadores da UFRJ e da Fiocruz se reuniram ontem (15/05) à noite em um bar no Maracanã (RJ) para conversar com um público animado sobre o papel benéfico desempenhado por várias bactérias em nosso organismo. (foto: Sidcley Lyra/ Universidade Federal do Rio de Janeiro)
Você sabia que há mais micróbios na Terra do que estrelas no universo? Essa informação surpreendeu muitos dos presentes ontem à noite em um bar do Rio de Janeiro. Num bar??!! Sim! O grupo estava reunido para uma das primeiras sessões do festival internacional de divulgação científica Pint of Science, que tem como objetivo proporcionar debates divertidos sobre os mais variados temas da ciência em um formato acessível para o público e em ambientes descontraídos, como bares, restaurantes e cafés.
Eram 19h30 e o bar Bento, no Maracanã (RJ), já estava repleto de pessoas, quase todas com um copo de cerveja na mão, prontas para participar de um bate-papo com o tema ‘Vilões ou heróis: microrganismos que habitam nosso corpo’. Os oradores também já brindavam e começaram lançando um desafio. Quem respondesse corretamente a cada uma das questões ganhava uma camisa alusiva ao festival. “Quantos micróbios existem na Terra?” e “Quantas estrelas existem no universo?” foram algumas das perguntas lançadas.
Temos no nosso organismo um número maior de bactérias do que de células!
Depois dessa animada gincana, o microbiólogo Leandro Araújo Lobo, da Universidade Federal do Rio de Janeiro (UFRJ), começou a convocar a participação do público, dizendo: “Isto não é uma palestra ou um congresso! Isto é um bate-papo!”. E logo a seguir perguntou: “O que vem à cabeça de vocês quando se fala em bactérias?” Alguém gritou: “dor de garganta”; e outra pessoa disse: “doenças”. Mas os pesquisadores estavam ali para desmistificar essa associação. Na verdade, as bactérias são muito mais heroínas do que vilãs. Aliás, temos no nosso organismo um número maior de bactérias do que de células!
Um dos exemplos dados para ilustrar o impacto positivo das bactérias no nosso bem-estar é o fato de que os bebês que nascem de parto normal tendem a ter um nível de saúde geral melhor que os bebês que nascem por cesariana. E isso acontece porque, durante o parto, os bebês são expostos a uma grande quantidade de bactérias que vão colonizar o seu trato digestivo. Quando o bebê nasce por parto normal, acaba ingerindo diversas bactérias benéficas que advêm sobretudo do canal vaginal da mãe. Além de seu importante papel na proteção e defesa do organismo quando há colonização por organismos patogênicos (que causam doenças), essas bactérias auxiliam na absorção de nutrientes.



O modo como um bebê nasce se reflete na composição da sua microbiota (conjunto dos microrganismos que habitam o corpo) e isso tem impacto na sua saúde a longo prazo. (foto: Sander van der Wel/ Flickr – CC BY-SA 2.0)

Segundo o microbiólogo Luis Antunes, da Fundação Oswaldo Cruz, o transplante de microbiota vaginal da mãe para os bebês que nascem por cesariana vai ser algo bastante comum no futuro.  Hoje, o que está disponível é o transplante de microbiota fecal, que foi também discutido com bastante humor ontem à noite, ressalvando sempre os benefícios dessa técnica, sobretudo para os problemas gastrointestinais crônicos.

Bactérias no cardápio

Os participantes do evento também debateram algo que está muito na moda: o consumo de probióticos! Para aqueles que ainda não sabem, trata-se de organismos vivos que, quando administrados em quantidades apropriadas, conferem vantagens à saúde.


O kefir (à esquerda) e a kombucha (à direita), produtos obtidos a partir da fermentação de bebidas, são alimentos probióticos, ou seja, contêm microrganismos que trazem benefícios para a saúde. (fotos: Wikimedia Commons – CC0 e Ed Summers/ Flickr – CC BY 2.0)

Importante foi também fazer a distinção entre prebióticos e probióticos. Os prebióticos não são bactérias, mas sim nutrientes que servem para alimentar e estimular o crescimento de bactérias intestinais benéficas. Explicando melhor, trata-se sobretudo de fibras não digeríveis, mas que são fermentadas pelas bactérias do cólon (região do intestino).
O microbiólogo Marco Miguel, da UFRJ, salientou de imediato que devemos então comer vários alimentos ricos em fibras, como as verduras, já que são alimentos prebióticos. Sobre o consumo de prebióticos e probióticos em pó ou cápsulas como meio de suplementação, o melhor é procurar um profissional de saúde para avaliar essa necessidade e, em caso positivo, determinar a dosagem e o momento do dia que devem ser administrados.


Além das verduras, vários outros alimentos, como batata-doce, banana, cebola, alho e tomate, são naturalmente ricos em prebióticos, nutrientes capazes de estimular o crescimento de bactérias que melhoram o funcionamento do intestino. (fotos: Freeimages e Pixabay)


Mas uma grande dúvida ficou no ar quando alguém perguntou qual o impacto dos alimentos transgênicos (geneticamente modificados) na nossa microbiota. De fato, não é possível avaliar com precisão essa questão, pois não existem ainda as técnicas mais indicadas para tal, mas Miguel respondeu de imediato que os alimentos transgênicos, por serem algo tão novo e diferente, podem exterminar as formas selvagens de bactérias probióticas intestinais.
Antunes ressaltou que, apesar de não se saberem os efeitos a longo prazo do consumo desse tipo de alimento sobre a nossa microbiota, os transgênicos são muito importantes na nossa sociedade, pois promovem o abastecimento necessário para alimentar a atual população mundial.
Muitas outras questões interessantes e curiosas surgiram e, entre gargalhadas, brindes e partilhas de fatias de pizza, encerrou-se o bate-papo. No final, as bactérias benéficas que habitam o nosso corpo ganharam um novo protagonismo, tendo sido atribuído a elas o título de heroínas da noite!
Para quem se interessou em participar desse divertido debate sobre ciência, o Pint of Science acontece até 17 de maio em mais de 100 cidades espalhadas por 11 países! A entrada é gratuita. Confira a programação no Brasil na página do evento.

Margarida Martins
Instituto de Medicina Molecular (Lisboa/ Portugal)
Especial para CH On-line

 http://www.cienciahoje.org.br/noticia/v/ler/id/4924/n/conversa_sobre_bacterias_regada_a_cerveja

Parceria contra câncer e bactérias patogênicas

Parceria contra câncer e bactérias patogênicas

Resultados de estudos sobre os mecanismos de entrada das proteínas virais nas células, feitos por pesquisadores brasileiros e portugueses, deram origem a um projeto para o desenvolvimento de fármacos para o combate de diversas doenças.

O estudo das interações de proteínas virais com membranas celulares de organismos infectados pode contribuir para o desenvolvimento de novas estratégias terapêuticas para o combate ao câncer e a doenças causadas por bactérias. (foto: David Goodsell/ Wikimedia Commons – CC BY 4.0)

 
Há mais de 10 anos, o Laboratório de Bioquímica de Vírus do Instituto de Bioquímica Médica (IBqM) da Universidade Federal do Rio de Janeiro (UFRJ) e o Laboratório de Bioquímica Física de Fármacos do Instituto de Medicina Molecular (iMM), em Lisboa, colaboram em estudos sobre a interação de proteínas virais e as membranas celulares. Resultados desses estudos deram origem a um projeto internacional – chamado Inpact – com o objetivo de desenvolver fármacos inéditos para combater aquela que é conhecida como a doença do século 21 – o câncer –, além de várias doenças infeciosas causadas por bactérias.
Entre os resultados dessa colaboração que serviram de base para a proposta do projeto Inpact está a descoberta de que uma proteína presente na camada que envolve o vírus da dengue é capaz de transportar moléculas que compõem o DNA e o RNA para o interior das células
Entre os resultados dessa colaboração que serviram de base para a proposta do projeto Inpact – que reúne instituições de cinco países – está a descoberta de que uma proteína presente na camada que envolve o vírus da dengue é capaz de transportar ácidos nucleicos (moléculas que compõem o DNA e o RNA) para o interior das células, sem que estas percam sua funcionalidade. Essa capacidade deve-se a certas características também desvendadas pelo mesmo grupo, como o fato de essas proteínas conseguirem atravessar as membranas celulares dos mamíferos.
O estudou, que resultou em um artigo publicado em 2013, contou também com a participação de pesquisadores do Instituto de Biofísica Carlos Chagas Filho da UFRJ e do Departamento de Ciências Experimentais e da Saúde da Universidade Pompeu Fabra (Barcelona, Espanha).
As terapias baseadas no transporte de ácidos nucleicos ou de proteínas para o interior das células apresentam ainda algumas limitações. Portanto, a descoberta tem enorme potencial biomédico, já que essa proteína do vírus da dengue (chamada capsídica) pode facilitar a translocação de importantes moléculas com ação terapêutica através das membranas celulares e dar origem a tratamentos revolucionários tanto para câncer como para doenças causadas por bactérias.

Nova estratégia

Outro estudo da mesma equipe de pesquisadores e que também serviu de base para a criação do projeto Inpact buscou tornar economicamente viável e menos complexo o emprego de terapias que usam proteínas como agentes transportadores de fármacos. Para transportar os ácidos nucleicos, os pesquisadores propuseram usar apenas pequenos segmentos (peptídeos) que derivam da proteína capsídica do vírus da dengue – e não a proteína inteira –, pois eles são menores e mais fáceis de produzir.
Os resultados desse estudo, publicados em 2014, permitiram definir uma nova via de entrada de ácidos nucleicos para o interior das células. Tal descoberta poderá ser útil para o estabelecimento de tratamentos inovadores, visto que esses peptídeos derivados da proteína capsídica do vírus da dengue são potenciais candidatos a vetores para serem usados em terapias gênicas (em que se introduz material genético proveniente de outro organismo para prevenir ou tratar doenças).


Vários estudos sugerem que a terapia gênica poderá ser uma abordagem eficaz para determinados tipos de câncer. A proteína capsídica do vírus da dengue ou até mesmo pequenos segmentos dessa proteína são potencias candidatos a vetores nesse tipo de terapia. (foto: Pixabay – CC0)
Os resultados desses dois artigos do grupo foram posteriormente confirmados em um artigo de revisão, que foi publicado em 2015 por pesquisadores da UFRJ e do iMM e também serviu de base científica para a criação do projeto Inpact.
“Nessa revisão, compilamos e discutimos todos os achados acerca dos mecanismos de reconhecimento e entrada do vírus da dengue na célula hospedeira, ressaltando principalmente os dados da literatura, incluindo nossos próprios resultados, que corroboram nossa hipótese de que uma das proteínas do vírus [a proteína do capsídeo] tem um papel importante no transporte das moléculas que compõem o genoma do vírus através da membrana das células infectadas ”, explica a primeira autora do artigo, a bióloga Christine Cruz-Oliveira, do IBqM/UFRJ.
Apesar de o foco do projeto Inpact ser o uso dessa abordagem para desenvolver fármacos contra o câncer e doenças infeciosas causadas por bactérias, a descoberta dessa via de acesso às células pode ser empregada no combate a várias outras patologias.
Nas próximas semanas, você vai poder acompanhar alguns resultados já obtidos pelo projeto Inpact.

Margarida Martins
Instituto de Medicina Molecular (Lisboa/ Portugal)
Especial para CH On-line

http://www.cienciahoje.org.br/noticia/v/ler/id/4927/n/parceria_contra_cancer_e_bacterias_patogenicas

domingo, 14 de maio de 2017

Ecografia: tema transversal para o ensino médio

Ecografia: tema transversal para o ensino médio

A técnica popularmente conhecida como ultrassonografia, tão presente atualmente em nosso cotidiano, pode ser um ponto de partida promissor para a abordagem de conceitos científicos nas aulas de biologia e física. Nesta coluna, Carlos Alberto dos Santos mostra o caminho percorrido pela ecografia, desde seu surgimento até o sucesso de sua aplicação médica.

A ecografia, também conhecida como ultrassonografia, é hoje usada para observar qualquer órgão do corpo humano, mas está mais presente na cardiologia e obstetrícia. (foto: Alexandra Abreu/ Flickr – CC BY-NC-ND 2.0)
A ecografia é um recurso tecnológico presente em praticamente qualquer ambiente hospitalar e em muitos consultórios médicos. Surpreende que algo com essa presença em nosso cotidiano não mereça a devida atenção por parte dos autores de livros de física para o ensino médio. Para preencher essa lacuna, abordarei o assunto em duas colunas. Hoje tratarei do contexto médico-hospitalar e, na próxima coluna, apresentarei sugestões de intervenção didática em aulas de biologia e física.
Os nomes ecografia e ultrassonografia designam a mesma técnica, mas são ligeiramente diferentes na etimologia. Ecografia si
gnifica grafia do eco e ultrassonografia significa grafia do ultrassom. O interessante é que os dois termos são complementares em relação ao procedimento técnico usual, no qual tem-se eco do ultrassom. Ou seja, as imagens que vemos nos exames são provenientes de um eco, ou reflexão do som, quando emitido na frequência ultrassônica. A técnica é uma invenção humana, mas o uso desse fenômeno ocorre naturalmente nos morcegos e em alguns mamíferos marinhos, como o golfinho. Tratarei aqui apenas da técnica inventada pelo homem.
Usarei o recurso do mapa conceitual, elaborado com a ferramenta CMapTools, para orientar minha narrativa. Em coluna anterior, discuti como usar essa ferramenta para transformar textos de divulgação científica em plano de aula.

O mapa apresentado na figura foi elaborado a partir de dois artigos: ‘The interaction of physicians, physicists and industry in the development of echocardiography’, publicado em 1973 por Carl Hellmuth Hertz, um dos inventores da ecocardiografia, e ‘Evolution of Echocardiography’, publicado em 1996 por Harvey Feigenbaum, um dos responsáveis pelo renascimento da técnica, em 1963. O mapa é uma espécie de resenha gráfica do que consta na literatura, não apenas nos dois artigos citados.

O nascimento da técnica

A técnica que hoje conhecemos como ecocardiograma surgiu de um encontro casual entre dois estudantes de pós-graduação da Universidade de Lund (Suécia): o físico Carl Hertz, que usava ultrassom para a medida de distâncias, e o médico Inge Edler, que era responsável pelos diagnósticos que antecediam as cirurgias cardíacas. Ao longo da conversa, o médico perguntou ao físico se não havia algo como um radar que lhe permitisse fazer um diagnóstico mais preciso das enfermidades na válvula mitral para orientar procedimentos cirúrgicos.
A técnica que hoje conhecemos como ecocardiograma surgiu de um encontro casual entre dois estudantes de pós-graduação da Universidade de Lund
O ano era 1953, e a Tekniska Röntgencentralen, empresa alemã que realizava ensaios não destrutivos de materiais, havia acabado de adquirir um reflectoscópio de ultrassom. Hertz visitou a Tekniska para verificar se algum eco do seu coração seria observado por meio daquele equipamento. Com o resultado positivo, ele conseguiu o equipamento por empréstimo, para experimentá-lo durante um fim de semana no hospital de Lund.
Estava nascendo a ideia da ecocardiografia, mas sua consolidação exigiria muito esforço da dupla e da comunidade científica. Não tendo ainda o título de doutor, Hertz e Edler não podiam solicitar recursos para a compra dos equipamentos necessários ao ambicioso projeto, mas convenceram os diretores da Siemens a lhes emprestar um reflectoscópio que a empresa estava construindo para um cliente. Era para ficar um ano no hospital de Lund, mas terminou sendo doado pela Siemens.
Logo nos primeiros ensaios, eles conseguiram registrar simultaneamente sinais de ultrassom e eletrocardiograma. Edler percebeu a correlação entre os sinais e a obstrução da válvula mitral. O problema era que os resultados só eram evidentes em pacientes com severas enfermidades cardíacas. Sinais de pacientes saudáveis apresentavam baixa resolução, por causa da baixa sensibilidade do cristal de quartzo, o transdutor de ultrassom (dispositivo que transforma um sinal ultrassônico em sinal elétrico e vice-versa) usado na época. A situação alcançou um patamar superior quando, em 1956, a Siemens fabricou, especialmente para eles, um transdutor de titanato de bário, o precursor dos modernos transdutores.

Atravessando a rebentação

Depois que a técnica atingiu um nível aceitável na resolução dos sinais, permitindo a análise de vários órgãos, a comunidade científica passou a enfrentar a falta de conhecimento da interação do ultrassom com os diferentes tecidos humanos, o que dificultava a interpretação dos novos resultados. Paralelamente a esses estudos, pesquisadores no Japão demonstraram que sinais de efeito Doppler (fenômeno presente em ondas emitidas ou refletidas por um objeto que se movimenta em relação a um observador) podiam ser detectados em função do movimento das válvulas do coração e do fluxo sanguíneo.




Em A, primeiro reflectoscópio de ultrassom utilizado por Edler e Hertz. O equipamento havia sido produzido para uso industrial, de modo que os pesquisadores tiveram que adaptar uma câmara fotográfica na frente da tela para registrar os exames médicos. Em B, ecocardiógrafo moderno, com Doppler, em uso no Hospital do Coração de Natal. (fotos: A – Wikimedia Commons; B – Carlos Alberto dos Santos)


Entre o fim dos anos 1960 e o início dos 1970, ninguém seria capaz de prever o sucesso que a ultrassonografia faz nos dias atuais. O uso do efeito Doppler tão festejado e banalizado atualmente enfrentou o ceticismo da comunidade médica por mais de duas décadas. Só depois de meados dos anos 1970, a ecografia Doppler entrou na rotina clínica. Na verdade, o grande salto se deu no final daquela década, quando ficou demonstrado que dados hemodinâmicos podiam ser precisamente obtidos com o efeito Doppler.
Embora possa ser usada para observar qualquer órgão do corpo humano, é na cardiologia que a ecografia, sob a denominação de ecocardiograma, se faz presente com maior intensidade. E foi por meio da cardiologia que a ecografia tornou-se popular na obstetrícia. Com o objetivo de monitorar a pulsação fetal, os médicos desenvolveram o que genericamente denomina-se ecografia fetal ou ultrassonografia fetal, em meados dos anos 1960. O uso rotineiro da técnica na clínica médica teve início nos anos 1980 e, hoje em dia, é impensável o acompanhamento de uma gestação sem o uso sistemático da ecografia.
O estrondoso sucesso da técnica deve ser creditado às inovações tecnológicas na captação e no tratamento de imagens, uma arte que passa pela fabricação de incríveis transdutores para emissão e captação de ultrassom, pela matemática envolvida na transformação de sinais elétricos em imagens tridimensionais e pela eletrônica associada.
Graças à criatividade de engenheiros, físicos e matemáticos, os médicos contemporâneos têm à sua disposição um recurso não invasivo capaz de acompanhar visualmente a dinâmica do corpo humano em tempo real.

Carlos Alberto dos Santos
Professor aposentado do Instituto de Física da Universidade Federal do Rio Grande do Sul (UFRGS) e professor visitante da Universidade Federal Rural do Semi-árido (Ufersa)

http://www.cienciahoje.org.br/noticia/v/ler/id/4922/n/ecografia:_tema_transversal_para_o_ensino_medio