O lançamento do ChatGPT pela startup norte-americana OpenIA, no final de 2022, reacendeu o debate em diversos países sobre a necessidade de regulamentar a inteligência artificial (IA) a fim de mitigar os impactos e os potenciais riscos dessa nova tecnologia em áreas como o mercado de trabalho.
No Brasil, apesar de existirem algumas iniciativas empresariais e governamentais, ainda não há, contudo, uma política pública que estabeleça as diretrizes para regular a IA no país, apontaram pesquisadores participantes do primeiro evento on-line do Ciclo ILP-FAPESP de Ciência e Inovação de 2023, realizado na segunda-feira (27/03).
“Há algumas iniciativas setoriais voltadas a regulamentar a inteligência artificial no Brasil, mas que não se configuram como uma estratégia ou política pública. E temos que ter”, avaliou Dora Kaufman, professora do programa de tecnologia da inteligência e design digital da Faculdade de Ciência e Tecnologia da Pontifícia Universidade Católica de São Paulo (PUC-SP) e pesquisadora dos impactos sociais e éticos da IA.
De acordo com Kaufman, entre as propostas de regulamentação da IA existentes internacionalmente há oito que são consideradas mais relevantes, lançadas por países estratégicos nesse tema. Em comum, elas têm orçamento definido para implementá-las e contemplam aspectos como os impactos da IA na educação e no mercado de trabalho.
Já no Brasil está em andamento a Estratégia Brasileira de Inteligência Artificial (Ebia), proposta pelo Ministério da Ciência, Tecnologia e Inovação (MCTI), e está em tramitação o projeto de lei de 21/20, que cria o marco legal do desenvolvimento e uso da IA no país.
Aprovada no plenário da Câmara dos Deputados em setembro de 2021, após um período de consulta pública com duração de quatro meses, a proposta seguiu para tramitação no Senado.
“Não sei qual o entendimento que os deputados que aprovaram a proposta têm sobre a inteligência artificial e temo que saia um projeto que não represente, de fato, o que é preciso para proteger o usuário, a reputação das instituições e a sociedade em geral”, afirmou Kaufman.
Razões para regulamentar
Na avaliação da pesquisadora, uma das principais razões pelas quais é preciso regulamentar a IA mundialmente é que se trata de uma tecnologia de propósito geral, que reconfigura a lógica e o funcionamento das sociedades.
“Se considerarmos os últimos séculos, tivemos três tecnologias de propósito geral anteriores à IA: o carvão, que deu início à Revolução Industrial, a eletricidade e a mutação genética”, enumerou.
Apesar da necessidade de regulamentação e da existência de propostas de políticas públicas, nenhum país conseguiu avançar nesse sentido, ponderou a pesquisadora.
“O processo está mais avançado hoje na Comissão Europeia, que começou em 2018, foi colocado em consulta pública em novembro de 2022, já teve mais de 3 mil emendas e ainda não chegou a um resultado final”, disse.
Algumas das dificuldades para regulamentar a IA são a necessidade de contemplar no processo dois agentes distintos – os desenvolvedores e os usuários – e uma lacuna de conhecimento dos reguladores em relação a essa nova tecnologia, que é complexa e cujo desenvolvimento é acelerado.
Outra razão é a globalização, uma vez que os dados usados para treinar os algoritmos de IA não têm nacionalidade, podendo ser oriundos de qualquer lugar do mundo. Além disso, as plataformas e os aplicativos utilizados hoje baseados nessa nova tecnologia foram desenvolvidos por empresas multinacionais, na maior parte norte-americanas.
“É uma tecnologia que não tem territorialidade, é muita complexa e avança muito rápido”, afirmou Kaufman.
Segundo a pesquisadora, hoje o desenvolvimento da IA se concentra em cinco empresas norte-americanas e privadas, que definem o hype – a excitação exagerada sobre as potencialidades de uma nova tecnologia.
“Nós vivemos no ano passado também o hype do metaverso, que desapareceu e agora deu lugar à IA generativa. E isso está relacionado com a competição acirrada entre essas empresas que lideram a implementação da IA”, explicou.
No caso específico do Brasil, outro obstáculo para estabelecer uma regulamentação para IA é a falta de profissionais especializados em áreas que dão sustentação a essa nova tecnologia, como a ciência de dados, apontou João Paulo Papa, professor da Universidade Estadual Paulista (Unesp), campus de Bauru.
“É mais difícil achar esses profissionais para elaborar o regulamento no país. Embora trabalhamos nessa área há vários anos, agora que está começando a aumentar a formação de pessoas em ciência de dados. Seria muito interessante o país tomar a frente nesse processo e fazer algo que seja pelo menos básico, lançar, receber sugestões e ir melhorando ao longo do tempo”, avaliou.
A despeito de o Brasil, a exemplo de países europeus, não ter protagonismo na pesquisa e desenvolvimento da IA, o país precisa estabelecer um marco regulatório para a inteligência artificial porque as tecnologias que nela se baseiam não têm senso comum e geram resultados incontroláveis, sublinhou Marcelo Finger, professor do Instituto de Matemática e Estatística da Universidade de São Paulo (IME-USP).
“Há um problema intrínseco na forma como a IA está sendo gerada para o uso do público. Precisamos controlar, pois os resultados gerados são incontroláveis”, avaliou Finger, um dos pesquisadores principais do Centro de Inteligência Artificial (C4AI) – um Centro de Pesquisa em Engenharia (CPE) constituído por FAPESP e IBM na USP.
Novo formato
Promovido pelo Instituto do Legislativo Paulista (ILP) em parceria com a FAPESP, o ciclo de eventos é dirigido a legisladores, gestores públicos e demais interessados.
A próxima edição está prevista para ocorrer no dia 24 de abril.
“Este novo ciclo consolida a parceria de muitos anos entre a Alesp e a FAPESP e inaugura um novo formato que visa potencializar o debate sobre temas atuais do campo da ciência e da tecnologia, que têm grande interesse para a sociedade em geral, especificamente para a formulação e implementação de políticas públicas, notadamente nos municípios, e também para o próprio processo legislativo”, disse Sônia Ortega, diretora executiva do Instituto de Estudos, Capacitação e Políticas Públicas do Poder Legislativo do Estado de São Paulo.
O presidente do Conselho Técnico-Administrativo da FAPESP, Carlos Américo Pacheco, foi o moderador do debate.
O evento pode ser assistido na íntegra em: www.youtube.com/watch?v=FCddvLWa1YU.
Autor: Elton Alisson
Fonte: Agência FAPESP
Sítio Online da Publicação: FAPESP
Data: 31/03/2023
Publicação Original: https://agencia.fapesp.br/brasil-precisa-de-politica-publica-para-regulamentar-a-inteligencia-artificial-alertam-pesquisadores/41026/
Mostrando postagens com marcador Inteligência artificial. Mostrar todas as postagens
Mostrando postagens com marcador Inteligência artificial. Mostrar todas as postagens
sexta-feira, 31 de março de 2023
quarta-feira, 4 de janeiro de 2023
Inteligência artificial ajuda a selecionar características desejadas de peixe nativo para criação
Software desenvolvido por brasileiros faz medições automáticas de pacus com uso de inteligência artificial. Acima, peixe com corpo arredondado e abaixo, elíptico. Nas imagens da direita, as partes selecionadas pelo programa por meio de aprendizado de máquina (fotos: Diogo Hashimoto/Caunesp)
Diante de uma rede cheia de pacus (Piaractus mesopotamicus) é impossível distinguir a olho nu aqueles que terão descendentes com maior rendimento de filé ou que ganharão peso mais rápido, por exemplo.
Medir com uma fita métrica o tamanho do corpo de cada um e pesar com uma balança pode dar uma boa pista, quando esses dados são tabulados e comparados. Criar uma população inteira com as características desejáveis, porém, exige que sejam medidos e pesados cerca de 2 mil peixes por geração, algo que pode levar dias.
Pesquisadores da Universidade Estadual Paulista (Unesp) apoiados pela FAPESP acabam de solucionar esse problema com o desenvolvimento de um software que usa inteligência artificial para fazer medições precisas em tempo real.
Os resultados foram publicados na revista Aquaculture.
O objetivo do grupo é obter populações melhoradas desse peixe nativo, aumentando a produtividade e barateando o produto (leia mais em: agencia.fapesp.br/35144/).
“A medição manual limita a obtenção de dados, uma vez que estressa os peixes, pode transmitir doenças e levar a surtos, além de tomar um tempo precioso. Automatizamos o processo treinando a máquina com fotos dos pacus e indicando o que é cabeça, corpo, pelve e nadadeiras. Temos agora um dispositivo portátil que pode ser levado a campo e faz isso rapidamente, classificando os melhores animais”, esclarece Diogo Hashimoto, professor do Centro de Aquicultura da Unesp (Caunesp), em Jaboticabal.
Os pesquisadores usaram a tecnologia conhecida como deep learning, uma técnica de aprendizado de máquina que, entre outras vantagens, traz resultados com muito mais velocidade.
Os estudos foram conduzidos ainda no âmbito de um projeto financiado pela empresa Huawei do Brasil Telecomunicações, com a coordenação de Jose Remo Ferreira Brega, professor do Departamento de Computação da Faculdade de Ciências da Unesp, em Bauru, que também assina o artigo.
No estudo, os pesquisadores buscaram diferenciar pacus redondos dos elípticos. Uma vez que os peixes selvagens costumam ter o corpo mais arredondado, acredita-se que essa característica possa pesar na escolha dos consumidores. Para obtê-la, selecionam-se aqueles que tenham uma relação proporcional entre altura e largura. Com isso, obtém-se ainda um maior rendimento de lombo e “costela”, como são chamados alguns dos cortes mais apreciados de peixes nativos como o pacu e o tambaqui (leia mais em: agencia.fapesp.br/37902/).
Outras relações entre as medidas dos peixes, como tamanho da pelve ou proporção entre tamanho da cabeça e do corpo, podem indicar maior rendimento do filé ou mesmo taxas de crescimento e ganho de peso, por exemplo.
Peixes melhorados
A melhoria por meio da seleção genética de características desejáveis pelos produtores, conhecidas como fenótipos, não é novidade no setor agropecuário brasileiro, líder mundial na produção de proteína animal advinda de frangos, bois e porcos.
No que diz respeito à aquicultura, porém, o que existe de tecnologia para melhoramento está praticamente restrito ao salmão e à tilápia, dois peixes exóticos entre os mais produzidos no mundo, com a maior parte das inovações realizada no exterior.
Ainda que o Brasil tenha uma cadeia produtiva de tilápia que envolva pesquisa e desenvolvimento, o melhoramento de peixes nativos é bastante incipiente. O software criado pelos brasileiros, porém, mostrou-se ainda mais eficiente do que o que existe para a seleção de fenótipos em outros peixes, como a tilápia.
“Nosso programa pode reconhecer e medir as diferentes partes do pacu mesmo na beira do tanque, com poluição visual no fundo e condições de luz variáveis. O que já foi desenvolvido para tilápia utiliza-se de luz controlada e de um fundo padronizado”, compara Hashimoto.
A sistematização de fenótipos do pacu em grandes bancos de dados vai permitir selecionar os animais com mais precisão, potencializando outro trabalho realizado pelo grupo de Jaboticabal.
Em 2021, os pesquisadores publicaram um artigo no qual descrevem os chamados polimorfismos de nucleotídeo simples (SNPs, na sigla em inglês) do pacu e do tambaqui (Colossoma macropomum). Essas mutações no código genético podem auxiliar no mapeamento genômico de características desejáveis dos peixes, acelerando a seleção e o melhoramento.
A forma convencional de medir o rendimento do filé ou do lombo, por exemplo, é sacrificar o animal e pesar essas partes. Com isso, perde-se o indivíduo e tem-se apenas seus irmãos, que apesar de muito parecidos geneticamente não necessariamente vão trazer aquelas características.
“A vantagem do software integrado com dados genômicos é que podemos coletar as informações e manter o animal desejado vivo para ser usado como reprodutor durante o processo de seleção”, aponta Hashimoto.
O artigo High-throughput phenotyping by deep learning to include body shape in the breeding program of pacu (Piaractus mesopotamicus) pode ser lido em: www.sciencedirect.com/science/article/abs/pii/S0044848622009644.
Autor: André Julião
Fonte: Agência FAPESP, de Jaboticabal
Sítio Online da Publicação: FAPESP
Data: 03/01/2023
Publicação Original: https://agencia.fapesp.br/inteligencia-artificial-ajuda-a-selecionar-caracteristicas-desejadas-de-peixe-nativo-para-criacao/40375/
quinta-feira, 4 de agosto de 2022
Pesquisa usa inteligência artificial para apontar área prioritária de combate ao desmatamento na Amazônia
Um método desenvolvido por pesquisadores brasileiros com base em imagens de satélite e inteligência artificial mostra que a área prioritária das ações de combate ao desmatamento poderia ser 27,8% menor do que a dos 11 municípios atualmente monitorados pelo governo federal no Plano Amazônia 2021/2022. Esse monitoramento, porém, deixa de considerar novas fronteiras de derrubada da floresta, que extrapolam os limites desses municípios-alvo.
Um método desenvolvido por pesquisadores brasileiros com base em imagens de satélite e inteligência artificial mostra que a área prioritária das ações de combate ao desmatamento poderia ser 27,8% menor do que a dos 11 municípios atualmente monitorados pelo governo federal no Plano Amazônia 2021/2022. Esse monitoramento, porém, deixa de considerar novas fronteiras de derrubada da floresta, que extrapolam os limites desses municípios-alvo.
Pesquisa publicada em junho na Conservation Letters, uma revista da Society for Conservation Biology, aponta que as regiões com as maiores taxas de desmatamento na Amazônia, classificadas de “alta prioridade”, englobam 414.603 km2 neste ano, ante a área total incluída no plano que, somando todos os municípios, é de 574.724 km2. Ou seja, a área a ser monitorada seria 160 mil km2 menor, uma extensão similar à do Suriname.
Mas, enquanto os hotspots identificados pelos pesquisadores responderam por 66% da taxa média anual de devastação da floresta, os 11 municípios-alvo do plano representaram 37% da taxa de desmatamento nos últimos três anos (2019 a 2021).
No artigo, cientistas do Instituto Nacional de Pesquisas Espaciais (Inpe) e de universidades americanas concluem que o método proposto, além de dar um foco mais definido para a fiscalização, revela novas fronteiras de derrubada da floresta, atualmente fora do plano de monitoramento por extrapolar os limites desses municípios-alvo.
“Com essa nova abordagem, concluímos que há um ganho de efetividade ao priorizar áreas com maiores índices de desmatamento, não limitando por municípios. Esse resultado é importante, visto que cada vez mais órgãos de fiscalização, como o Ibama e o ICMBio, têm sofrido com cortes de recursos, tanto de servidores como de orçamento. Alguns desses hotspots de devastação ficam dentro dos 11 municípios-alvo, mas outros estão nas bordas, abrindo novas fronteiras”, diz à Agência FAPESP o autor correspondente do artigo Guilherme Augusto Verola Mataveli, da Divisão de Observação da Terra e Geoinformática do Inpe.
Procurado pela Agência FAPESP, o Conselho Nacional da Amazônia Legal (CNAL), responsável pelo Plano Amazônia 2021/2022 informou por meio de sua assessoria, que “o objetivo [do plano] foi focar onde a ocorrência dos ilícitos ambientais tinha maior impacto nos resultados da gestão ambiental brasileira, sem descuidar da atuação nas demais áreas da Amazônia Legal”. De acordo com o CNAL, “os municípios escolhidos foram aqueles que constavam com maiores áreas desmatadas, assim como maior incidência de queimadas, podendo ser incluídos outros que venham a ser mapeados pelo Centro Gestor e Operacional do Sistema de Proteção da Amazônia [Censipam]”.
O CNAL disse ainda que o Inpe foi uma das “instituições protagonistas no processo de indicação das prioridades estabelecidas”, mas que os cientistas que trabalharam na pesquisa poderiam “ter contribuído oportunamente de forma institucional”. “O CNAL trabalha sempre com a informação oficial gerida, trabalhada e analisada pelos órgãos oficiais do governo”, afirma o órgão.
Avanço no processamento de dados
No estudo, os cientistas destacam que o desmatamento nos 11 municípios-alvo do plano foi significativo nos últimos anos, motivando um monitoramento, mas isso não seria suficiente para priorizar somente esses locais. São eles: São Félix do Xingu, Altamira, Novo Progresso, Pacajá, Portel, Itaituba e Rurópolis, no Estado do Pará, Apuí e Lábrea, no Amazonas, Colniza, em Mato Grosso, e Porto Velho, em Rondônia.
Os pesquisadores citam que, mesmo com ações de fiscalização concentradas na região, houve aumento de 105% na taxa de devastação entre fevereiro e abril de 2021 se comparada à média nos anos anteriores (2017-2021). Pelos dados do Deter, programa oficial de alertas de desmatamento do Brasil, foram 524,89 km2 de novos pontos de devastação nessas áreas.
“Essa pesquisa valida a importância do Inpe, que há 60 anos forma pesquisadores de ponta e produz ciência e tecnologia, a partir de dados satelitários, para a sociedade e o desenvolvimento nacional. Os avanços no processamento de dados apresentados neste estudo com o uso de inteligência artificial para o planejamento do combate ao desmatamento são críticos para a mitigação de problemas ambientais nacionais e para a construção de um plano de desenvolvimento sustentável para o país”, afirma o chefe da Divisão de Observação da Terra e Geoinformática do Inpe, Luiz Aragão, e um dos autores do artigo.
Àreas prioritárias
O grupo utilizou, entre outras fontes, dados do Prodes – o Projeto de Monitoramento do Desmatamento na Amazônia Legal por Satélite, do Inpe. Desde 1988, o Prodes produz as taxas anuais de desmatamento na região usadas pelo governo brasileiro para definir políticas públicas. Essas taxas são estimadas com base no corte raso identificado em cada imagem de satélite que cobre a Amazônia Legal.
Segundo o último relatório do Prodes, a área desmatada na Amazônia foi de 13.235 km² entre agosto de 2020 e julho de 2021, um aumento de 22% em relação ao período anterior (agosto de 2019 a julho de 2020) e a maior taxa desde 2006 (leia mais em http://terrabrasilis.dpi.inpe.br/app/dashboard/deforestation/biomes/legal_amazon/rates).
“A ideia do artigo surgiu em fevereiro de 2021, quando o Plano Amazônia 2021/2022 foi lançado. À época foi divulgado que o desmatamento nesses 11 municípios representava 70% do total registrado na Amazônia, mas o Prodes estava diferente. Com a evolução do modelo, percebemos que poderíamos apresentar uma ferramenta para ajudar no direcionamento da fiscalização”, completa Mataveli.
Para estabelecer as áreas prioritárias, os pesquisadores definiram primeiramente as chamadas células de grade distribuídas regularmente sobre a Amazônia – regiões de 25 km2 por 25 km2. Com base no algoritmo Random Forest, que constrói automaticamente conjuntos de regressões multivariadas para prever hotspots de desmatamento no ano seguinte, foi determinada uma classe de prioridade para cada uma destas células. Esse método identifica uma fração maior de áreas com risco de derrubada de árvores em relação à região total e a terras públicas.
Foram considerados cinco preditores: as taxas de desmatamento em anos anteriores; a distância para células da grade com alto desmatamento cumulativo em anos anteriores; a distância para infraestruturas (como rodovias e/ou hidrovias); a área total protegida na célula da grade e o número de focos de calor.
Depois houve a definição de três classes de prioridade, com base nas estimativas de desmatamento previsto – baixa (valores abaixo do percentil 70); média (entre os percentis 70 e 90) e alta (acima de 90). Os pesquisadores separaram, então, apenas as células das grades com percentis acima de 90 (alta) para mapear as áreas prioritárias de 2022, chegando aos 414.603 km2.
O método também permite a definição das regiões prioritárias anualmente usando as taxas de corte raso do período anterior, não dependendo das fronteiras geopolíticas. De acordo com os pesquisadores, entre os exemplos que estão fora do Plano Amazônia 2021/2022, mas apareceram como prioridade “alta”, estão Roraima e Acre.
"Priorizar esses 11 municípios será insuficiente para que o Brasil consiga cumprir compromissos internacionais, como o de zerar o desmatamento ilegal até 2028 assumido na COP-26 [Conferência do Clima das Nações Unidas]. Além disso, o Plano Amazônia 2021/2022 traz uma meta de combate ao desmatamento de 8.719 km2 por ano. Mas um decreto de 2018 já estabelecia um limite de 3.925 km2/ano após 2020. Ou seja, menos ambiciosa", completa Mataveli.
O pesquisador se refere ao decreto 9.578, de 2018, que trata da Política Nacional da Mudança do Clima e estabelece uma redução de 80% dos índices anuais de desmatamento na Amazônia Legal em relação à média entre 1996 e 2005. Essa meta está entre as ações a serem adotadas pelo Brasil para conter emissões de gases de efeito estufa.
Na COP-26, além do compromisso de zerar o desmatamento ilegal até 2028, o Brasil se comprometeu a reduzir até 2030 as emissões de gases de efeito estufa em 50% em relação aos níveis de 2005 e a atingir a neutralidade climática até 2050. No entanto, o crescimento das taxas de devastação da Amazônia contrasta com esses objetivos – cerca de 11% das emissões de gases estufa são causadas pela má gestão das florestas e do uso da terra, incluindo o desmatamento e incêndios.
Quando o Plano Amazônia 2021/2022 foi lançado, especialistas criticaram as metas estabelecidas, classificando-as de insuficientes. Isso porque o governo estabeleceu como objetivo reduzir o desmatamento com base na média registrada no período 2016-2020, que já era cerca de 35% maior do que a dos dez anos anteriores.
Ações complementares
A pesquisa sugere que, além de métodos mais diretos para definir alvos de políticas públicas, é necessário uma série de ações complementares para combater a devastação. Aponta entre elas a educação e conscientização ambiental; a identificação e responsabilização dos atores que infringem as leis de proteção ambiental e lucram com o desmatamento ilegal; o incentivo a projetos que invistam em ações voltadas à economia verde e para manter a floresta em pé, além da regularização de terras públicas e indígenas.
"O código que usamos para gerar o modelo e as áreas prioritárias é aberto. Estamos conversando com a plataforma Terra Brasilis para tentar incluir essas áreas nas informações disponíveis para quem quiser acessar. Assim, se algum governo, incluindo estaduais ou municipais, tiver interesse, é possível aplicá-lo na prática", conclui Mataveli.
O artigo Science-based planning can support law enforcement actions to curb deforestation in the Brazilian Amazon, dos pesquisadores Guilherme Mataveli, Gabriel de Oliveira, Michel Chaves, Ricardo Dalagnol, Fabien H. Wagner, Alber H.S. Ipia, Celso H.L. Silva-Júnior e Luiz Aragão, pode ser lido em https://conbio.onlinelibrary.wiley.com/doi/epdf/10.1111/conl.12908
Pesquisa publicada em junho na Conservation Letters, uma revista da Society for Conservation Biology, aponta que as regiões com as maiores taxas de desmatamento na Amazônia, classificadas de “alta prioridade”, englobam 414.603 km2 neste ano, ante a área total incluída no plano que, somando todos os municípios, é de 574.724 km2. Ou seja, a área a ser monitorada seria 160 mil km2 menor, uma extensão similar à do Suriname.
Mas, enquanto os hotspots identificados pelos pesquisadores responderam por 66% da taxa média anual de devastação da floresta, os 11 municípios-alvo do plano representaram 37% da taxa de desmatamento nos últimos três anos (2019 a 2021).
No artigo, cientistas do Instituto Nacional de Pesquisas Espaciais (Inpe) e de universidades americanas concluem que o método proposto, além de dar um foco mais definido para a fiscalização, revela novas fronteiras de derrubada da floresta, atualmente fora do plano de monitoramento por extrapolar os limites desses municípios-alvo.
“Com essa nova abordagem, concluímos que há um ganho de efetividade ao priorizar áreas com maiores índices de desmatamento, não limitando por municípios. Esse resultado é importante, visto que cada vez mais órgãos de fiscalização, como o Ibama e o ICMBio, têm sofrido com cortes de recursos, tanto de servidores como de orçamento. Alguns desses hotspots de devastação ficam dentro dos 11 municípios-alvo, mas outros estão nas bordas, abrindo novas fronteiras”, diz à Agência FAPESP o autor correspondente do artigo Guilherme Augusto Verola Mataveli, da Divisão de Observação da Terra e Geoinformática do Inpe.
O trabalho recebeu apoio da FAPESP por meio de quatro projetos: Influência do uso e cobertura da terra na emissão de material particulado fino por queimadas nos biomas Amazônia e Cerrado, Quantificando mortalidade de árvores com lasers, Uso de séries temporais densas Sentinel-2/MSI e algoritmos de aprendizado de máquinas para melhorar o monitoramento agrícola no bioma Cerrado e Variação interanual do balanço de gases de efeito estufa na Bacia Amazônica e seus controles em um mundo sob aquecimento e mudanças climáticas – Carbam: estudo de longo termo do balanço do carbono da Amazônia.
Procurado pela Agência FAPESP, o Conselho Nacional da Amazônia Legal (CNAL), responsável pelo Plano Amazônia 2021/2022 informou por meio de sua assessoria, que “o objetivo [do plano] foi focar onde a ocorrência dos ilícitos ambientais tinha maior impacto nos resultados da gestão ambiental brasileira, sem descuidar da atuação nas demais áreas da Amazônia Legal”. De acordo com o CNAL, “os municípios escolhidos foram aqueles que constavam com maiores áreas desmatadas, assim como maior incidência de queimadas, podendo ser incluídos outros que venham a ser mapeados pelo Centro Gestor e Operacional do Sistema de Proteção da Amazônia [Censipam]”.
O CNAL disse ainda que o Inpe foi uma das “instituições protagonistas no processo de indicação das prioridades estabelecidas”, mas que os cientistas que trabalharam na pesquisa poderiam “ter contribuído oportunamente de forma institucional”. “O CNAL trabalha sempre com a informação oficial gerida, trabalhada e analisada pelos órgãos oficiais do governo”, afirma o órgão.
Avanço no processamento de dados
No estudo, os cientistas destacam que o desmatamento nos 11 municípios-alvo do plano foi significativo nos últimos anos, motivando um monitoramento, mas isso não seria suficiente para priorizar somente esses locais. São eles: São Félix do Xingu, Altamira, Novo Progresso, Pacajá, Portel, Itaituba e Rurópolis, no Estado do Pará, Apuí e Lábrea, no Amazonas, Colniza, em Mato Grosso, e Porto Velho, em Rondônia.
Os pesquisadores citam que, mesmo com ações de fiscalização concentradas na região, houve aumento de 105% na taxa de devastação entre fevereiro e abril de 2021 se comparada à média nos anos anteriores (2017-2021). Pelos dados do Deter, programa oficial de alertas de desmatamento do Brasil, foram 524,89 km2 de novos pontos de devastação nessas áreas.
“Essa pesquisa valida a importância do Inpe, que há 60 anos forma pesquisadores de ponta e produz ciência e tecnologia, a partir de dados satelitários, para a sociedade e o desenvolvimento nacional. Os avanços no processamento de dados apresentados neste estudo com o uso de inteligência artificial para o planejamento do combate ao desmatamento são críticos para a mitigação de problemas ambientais nacionais e para a construção de um plano de desenvolvimento sustentável para o país”, afirma o chefe da Divisão de Observação da Terra e Geoinformática do Inpe, Luiz Aragão, e um dos autores do artigo.
Àreas prioritárias
O grupo utilizou, entre outras fontes, dados do Prodes – o Projeto de Monitoramento do Desmatamento na Amazônia Legal por Satélite, do Inpe. Desde 1988, o Prodes produz as taxas anuais de desmatamento na região usadas pelo governo brasileiro para definir políticas públicas. Essas taxas são estimadas com base no corte raso identificado em cada imagem de satélite que cobre a Amazônia Legal.
Segundo o último relatório do Prodes, a área desmatada na Amazônia foi de 13.235 km² entre agosto de 2020 e julho de 2021, um aumento de 22% em relação ao período anterior (agosto de 2019 a julho de 2020) e a maior taxa desde 2006 (leia mais em http://terrabrasilis.dpi.inpe.br/app/dashboard/deforestation/biomes/legal_amazon/rates).
“A ideia do artigo surgiu em fevereiro de 2021, quando o Plano Amazônia 2021/2022 foi lançado. À época foi divulgado que o desmatamento nesses 11 municípios representava 70% do total registrado na Amazônia, mas o Prodes estava diferente. Com a evolução do modelo, percebemos que poderíamos apresentar uma ferramenta para ajudar no direcionamento da fiscalização”, completa Mataveli.
Para estabelecer as áreas prioritárias, os pesquisadores definiram primeiramente as chamadas células de grade distribuídas regularmente sobre a Amazônia – regiões de 25 km2 por 25 km2. Com base no algoritmo Random Forest, que constrói automaticamente conjuntos de regressões multivariadas para prever hotspots de desmatamento no ano seguinte, foi determinada uma classe de prioridade para cada uma destas células. Esse método identifica uma fração maior de áreas com risco de derrubada de árvores em relação à região total e a terras públicas.
Foram considerados cinco preditores: as taxas de desmatamento em anos anteriores; a distância para células da grade com alto desmatamento cumulativo em anos anteriores; a distância para infraestruturas (como rodovias e/ou hidrovias); a área total protegida na célula da grade e o número de focos de calor.
Depois houve a definição de três classes de prioridade, com base nas estimativas de desmatamento previsto – baixa (valores abaixo do percentil 70); média (entre os percentis 70 e 90) e alta (acima de 90). Os pesquisadores separaram, então, apenas as células das grades com percentis acima de 90 (alta) para mapear as áreas prioritárias de 2022, chegando aos 414.603 km2.
O método também permite a definição das regiões prioritárias anualmente usando as taxas de corte raso do período anterior, não dependendo das fronteiras geopolíticas. De acordo com os pesquisadores, entre os exemplos que estão fora do Plano Amazônia 2021/2022, mas apareceram como prioridade “alta”, estão Roraima e Acre.
"Priorizar esses 11 municípios será insuficiente para que o Brasil consiga cumprir compromissos internacionais, como o de zerar o desmatamento ilegal até 2028 assumido na COP-26 [Conferência do Clima das Nações Unidas]. Além disso, o Plano Amazônia 2021/2022 traz uma meta de combate ao desmatamento de 8.719 km2 por ano. Mas um decreto de 2018 já estabelecia um limite de 3.925 km2/ano após 2020. Ou seja, menos ambiciosa", completa Mataveli.
O pesquisador se refere ao decreto 9.578, de 2018, que trata da Política Nacional da Mudança do Clima e estabelece uma redução de 80% dos índices anuais de desmatamento na Amazônia Legal em relação à média entre 1996 e 2005. Essa meta está entre as ações a serem adotadas pelo Brasil para conter emissões de gases de efeito estufa.
Na COP-26, além do compromisso de zerar o desmatamento ilegal até 2028, o Brasil se comprometeu a reduzir até 2030 as emissões de gases de efeito estufa em 50% em relação aos níveis de 2005 e a atingir a neutralidade climática até 2050. No entanto, o crescimento das taxas de devastação da Amazônia contrasta com esses objetivos – cerca de 11% das emissões de gases estufa são causadas pela má gestão das florestas e do uso da terra, incluindo o desmatamento e incêndios.
Quando o Plano Amazônia 2021/2022 foi lançado, especialistas criticaram as metas estabelecidas, classificando-as de insuficientes. Isso porque o governo estabeleceu como objetivo reduzir o desmatamento com base na média registrada no período 2016-2020, que já era cerca de 35% maior do que a dos dez anos anteriores.
Ações complementares
A pesquisa sugere que, além de métodos mais diretos para definir alvos de políticas públicas, é necessário uma série de ações complementares para combater a devastação. Aponta entre elas a educação e conscientização ambiental; a identificação e responsabilização dos atores que infringem as leis de proteção ambiental e lucram com o desmatamento ilegal; o incentivo a projetos que invistam em ações voltadas à economia verde e para manter a floresta em pé, além da regularização de terras públicas e indígenas.
"O código que usamos para gerar o modelo e as áreas prioritárias é aberto. Estamos conversando com a plataforma Terra Brasilis para tentar incluir essas áreas nas informações disponíveis para quem quiser acessar. Assim, se algum governo, incluindo estaduais ou municipais, tiver interesse, é possível aplicá-lo na prática", conclui Mataveli.
O artigo Science-based planning can support law enforcement actions to curb deforestation in the Brazilian Amazon, dos pesquisadores Guilherme Mataveli, Gabriel de Oliveira, Michel Chaves, Ricardo Dalagnol, Fabien H. Wagner, Alber H.S. Ipia, Celso H.L. Silva-Júnior e Luiz Aragão, pode ser lido em https://conbio.onlinelibrary.wiley.com/doi/epdf/10.1111/conl.12908
Autor: Luciana Constantino
Fonte: Agência FAPESP
Sítio Online da Publicação: FAPESP
Data: 02/08/2022
Publicação Original: https://agencia.fapesp.br/pesquisa-usa-inteligencia-artificial-para-apontar-area-prioritaria-de-combate-ao-desmatamento-na-amazonia/39251/
Pesquisa publicada em junho na Conservation Letters, uma revista da Society for Conservation Biology, aponta que as regiões com as maiores taxas de desmatamento na Amazônia, classificadas de “alta prioridade”, englobam 414.603 km2 neste ano, ante a área total incluída no plano que, somando todos os municípios, é de 574.724 km2. Ou seja, a área a ser monitorada seria 160 mil km2 menor, uma extensão similar à do Suriname.
Mas, enquanto os hotspots identificados pelos pesquisadores responderam por 66% da taxa média anual de devastação da floresta, os 11 municípios-alvo do plano representaram 37% da taxa de desmatamento nos últimos três anos (2019 a 2021).
No artigo, cientistas do Instituto Nacional de Pesquisas Espaciais (Inpe) e de universidades americanas concluem que o método proposto, além de dar um foco mais definido para a fiscalização, revela novas fronteiras de derrubada da floresta, atualmente fora do plano de monitoramento por extrapolar os limites desses municípios-alvo.
“Com essa nova abordagem, concluímos que há um ganho de efetividade ao priorizar áreas com maiores índices de desmatamento, não limitando por municípios. Esse resultado é importante, visto que cada vez mais órgãos de fiscalização, como o Ibama e o ICMBio, têm sofrido com cortes de recursos, tanto de servidores como de orçamento. Alguns desses hotspots de devastação ficam dentro dos 11 municípios-alvo, mas outros estão nas bordas, abrindo novas fronteiras”, diz à Agência FAPESP o autor correspondente do artigo Guilherme Augusto Verola Mataveli, da Divisão de Observação da Terra e Geoinformática do Inpe.
Procurado pela Agência FAPESP, o Conselho Nacional da Amazônia Legal (CNAL), responsável pelo Plano Amazônia 2021/2022 informou por meio de sua assessoria, que “o objetivo [do plano] foi focar onde a ocorrência dos ilícitos ambientais tinha maior impacto nos resultados da gestão ambiental brasileira, sem descuidar da atuação nas demais áreas da Amazônia Legal”. De acordo com o CNAL, “os municípios escolhidos foram aqueles que constavam com maiores áreas desmatadas, assim como maior incidência de queimadas, podendo ser incluídos outros que venham a ser mapeados pelo Centro Gestor e Operacional do Sistema de Proteção da Amazônia [Censipam]”.
O CNAL disse ainda que o Inpe foi uma das “instituições protagonistas no processo de indicação das prioridades estabelecidas”, mas que os cientistas que trabalharam na pesquisa poderiam “ter contribuído oportunamente de forma institucional”. “O CNAL trabalha sempre com a informação oficial gerida, trabalhada e analisada pelos órgãos oficiais do governo”, afirma o órgão.
Avanço no processamento de dados
No estudo, os cientistas destacam que o desmatamento nos 11 municípios-alvo do plano foi significativo nos últimos anos, motivando um monitoramento, mas isso não seria suficiente para priorizar somente esses locais. São eles: São Félix do Xingu, Altamira, Novo Progresso, Pacajá, Portel, Itaituba e Rurópolis, no Estado do Pará, Apuí e Lábrea, no Amazonas, Colniza, em Mato Grosso, e Porto Velho, em Rondônia.
Os pesquisadores citam que, mesmo com ações de fiscalização concentradas na região, houve aumento de 105% na taxa de devastação entre fevereiro e abril de 2021 se comparada à média nos anos anteriores (2017-2021). Pelos dados do Deter, programa oficial de alertas de desmatamento do Brasil, foram 524,89 km2 de novos pontos de devastação nessas áreas.
“Essa pesquisa valida a importância do Inpe, que há 60 anos forma pesquisadores de ponta e produz ciência e tecnologia, a partir de dados satelitários, para a sociedade e o desenvolvimento nacional. Os avanços no processamento de dados apresentados neste estudo com o uso de inteligência artificial para o planejamento do combate ao desmatamento são críticos para a mitigação de problemas ambientais nacionais e para a construção de um plano de desenvolvimento sustentável para o país”, afirma o chefe da Divisão de Observação da Terra e Geoinformática do Inpe, Luiz Aragão, e um dos autores do artigo.
Àreas prioritárias
O grupo utilizou, entre outras fontes, dados do Prodes – o Projeto de Monitoramento do Desmatamento na Amazônia Legal por Satélite, do Inpe. Desde 1988, o Prodes produz as taxas anuais de desmatamento na região usadas pelo governo brasileiro para definir políticas públicas. Essas taxas são estimadas com base no corte raso identificado em cada imagem de satélite que cobre a Amazônia Legal.
Segundo o último relatório do Prodes, a área desmatada na Amazônia foi de 13.235 km² entre agosto de 2020 e julho de 2021, um aumento de 22% em relação ao período anterior (agosto de 2019 a julho de 2020) e a maior taxa desde 2006 (leia mais em http://terrabrasilis.dpi.inpe.br/app/dashboard/deforestation/biomes/legal_amazon/rates).
“A ideia do artigo surgiu em fevereiro de 2021, quando o Plano Amazônia 2021/2022 foi lançado. À época foi divulgado que o desmatamento nesses 11 municípios representava 70% do total registrado na Amazônia, mas o Prodes estava diferente. Com a evolução do modelo, percebemos que poderíamos apresentar uma ferramenta para ajudar no direcionamento da fiscalização”, completa Mataveli.
Para estabelecer as áreas prioritárias, os pesquisadores definiram primeiramente as chamadas células de grade distribuídas regularmente sobre a Amazônia – regiões de 25 km2 por 25 km2. Com base no algoritmo Random Forest, que constrói automaticamente conjuntos de regressões multivariadas para prever hotspots de desmatamento no ano seguinte, foi determinada uma classe de prioridade para cada uma destas células. Esse método identifica uma fração maior de áreas com risco de derrubada de árvores em relação à região total e a terras públicas.
Foram considerados cinco preditores: as taxas de desmatamento em anos anteriores; a distância para células da grade com alto desmatamento cumulativo em anos anteriores; a distância para infraestruturas (como rodovias e/ou hidrovias); a área total protegida na célula da grade e o número de focos de calor.
Depois houve a definição de três classes de prioridade, com base nas estimativas de desmatamento previsto – baixa (valores abaixo do percentil 70); média (entre os percentis 70 e 90) e alta (acima de 90). Os pesquisadores separaram, então, apenas as células das grades com percentis acima de 90 (alta) para mapear as áreas prioritárias de 2022, chegando aos 414.603 km2.
O método também permite a definição das regiões prioritárias anualmente usando as taxas de corte raso do período anterior, não dependendo das fronteiras geopolíticas. De acordo com os pesquisadores, entre os exemplos que estão fora do Plano Amazônia 2021/2022, mas apareceram como prioridade “alta”, estão Roraima e Acre.
"Priorizar esses 11 municípios será insuficiente para que o Brasil consiga cumprir compromissos internacionais, como o de zerar o desmatamento ilegal até 2028 assumido na COP-26 [Conferência do Clima das Nações Unidas]. Além disso, o Plano Amazônia 2021/2022 traz uma meta de combate ao desmatamento de 8.719 km2 por ano. Mas um decreto de 2018 já estabelecia um limite de 3.925 km2/ano após 2020. Ou seja, menos ambiciosa", completa Mataveli.
O pesquisador se refere ao decreto 9.578, de 2018, que trata da Política Nacional da Mudança do Clima e estabelece uma redução de 80% dos índices anuais de desmatamento na Amazônia Legal em relação à média entre 1996 e 2005. Essa meta está entre as ações a serem adotadas pelo Brasil para conter emissões de gases de efeito estufa.
Na COP-26, além do compromisso de zerar o desmatamento ilegal até 2028, o Brasil se comprometeu a reduzir até 2030 as emissões de gases de efeito estufa em 50% em relação aos níveis de 2005 e a atingir a neutralidade climática até 2050. No entanto, o crescimento das taxas de devastação da Amazônia contrasta com esses objetivos – cerca de 11% das emissões de gases estufa são causadas pela má gestão das florestas e do uso da terra, incluindo o desmatamento e incêndios.
Quando o Plano Amazônia 2021/2022 foi lançado, especialistas criticaram as metas estabelecidas, classificando-as de insuficientes. Isso porque o governo estabeleceu como objetivo reduzir o desmatamento com base na média registrada no período 2016-2020, que já era cerca de 35% maior do que a dos dez anos anteriores.
Ações complementares
A pesquisa sugere que, além de métodos mais diretos para definir alvos de políticas públicas, é necessário uma série de ações complementares para combater a devastação. Aponta entre elas a educação e conscientização ambiental; a identificação e responsabilização dos atores que infringem as leis de proteção ambiental e lucram com o desmatamento ilegal; o incentivo a projetos que invistam em ações voltadas à economia verde e para manter a floresta em pé, além da regularização de terras públicas e indígenas.
"O código que usamos para gerar o modelo e as áreas prioritárias é aberto. Estamos conversando com a plataforma Terra Brasilis para tentar incluir essas áreas nas informações disponíveis para quem quiser acessar. Assim, se algum governo, incluindo estaduais ou municipais, tiver interesse, é possível aplicá-lo na prática", conclui Mataveli.
O artigo Science-based planning can support law enforcement actions to curb deforestation in the Brazilian Amazon, dos pesquisadores Guilherme Mataveli, Gabriel de Oliveira, Michel Chaves, Ricardo Dalagnol, Fabien H. Wagner, Alber H.S. Ipia, Celso H.L. Silva-Júnior e Luiz Aragão, pode ser lido em https://conbio.onlinelibrary.wiley.com/doi/epdf/10.1111/conl.12908
Pesquisa publicada em junho na Conservation Letters, uma revista da Society for Conservation Biology, aponta que as regiões com as maiores taxas de desmatamento na Amazônia, classificadas de “alta prioridade”, englobam 414.603 km2 neste ano, ante a área total incluída no plano que, somando todos os municípios, é de 574.724 km2. Ou seja, a área a ser monitorada seria 160 mil km2 menor, uma extensão similar à do Suriname.
Mas, enquanto os hotspots identificados pelos pesquisadores responderam por 66% da taxa média anual de devastação da floresta, os 11 municípios-alvo do plano representaram 37% da taxa de desmatamento nos últimos três anos (2019 a 2021).
No artigo, cientistas do Instituto Nacional de Pesquisas Espaciais (Inpe) e de universidades americanas concluem que o método proposto, além de dar um foco mais definido para a fiscalização, revela novas fronteiras de derrubada da floresta, atualmente fora do plano de monitoramento por extrapolar os limites desses municípios-alvo.
“Com essa nova abordagem, concluímos que há um ganho de efetividade ao priorizar áreas com maiores índices de desmatamento, não limitando por municípios. Esse resultado é importante, visto que cada vez mais órgãos de fiscalização, como o Ibama e o ICMBio, têm sofrido com cortes de recursos, tanto de servidores como de orçamento. Alguns desses hotspots de devastação ficam dentro dos 11 municípios-alvo, mas outros estão nas bordas, abrindo novas fronteiras”, diz à Agência FAPESP o autor correspondente do artigo Guilherme Augusto Verola Mataveli, da Divisão de Observação da Terra e Geoinformática do Inpe.
O trabalho recebeu apoio da FAPESP por meio de quatro projetos: Influência do uso e cobertura da terra na emissão de material particulado fino por queimadas nos biomas Amazônia e Cerrado, Quantificando mortalidade de árvores com lasers, Uso de séries temporais densas Sentinel-2/MSI e algoritmos de aprendizado de máquinas para melhorar o monitoramento agrícola no bioma Cerrado e Variação interanual do balanço de gases de efeito estufa na Bacia Amazônica e seus controles em um mundo sob aquecimento e mudanças climáticas – Carbam: estudo de longo termo do balanço do carbono da Amazônia.
Procurado pela Agência FAPESP, o Conselho Nacional da Amazônia Legal (CNAL), responsável pelo Plano Amazônia 2021/2022 informou por meio de sua assessoria, que “o objetivo [do plano] foi focar onde a ocorrência dos ilícitos ambientais tinha maior impacto nos resultados da gestão ambiental brasileira, sem descuidar da atuação nas demais áreas da Amazônia Legal”. De acordo com o CNAL, “os municípios escolhidos foram aqueles que constavam com maiores áreas desmatadas, assim como maior incidência de queimadas, podendo ser incluídos outros que venham a ser mapeados pelo Centro Gestor e Operacional do Sistema de Proteção da Amazônia [Censipam]”.
O CNAL disse ainda que o Inpe foi uma das “instituições protagonistas no processo de indicação das prioridades estabelecidas”, mas que os cientistas que trabalharam na pesquisa poderiam “ter contribuído oportunamente de forma institucional”. “O CNAL trabalha sempre com a informação oficial gerida, trabalhada e analisada pelos órgãos oficiais do governo”, afirma o órgão.
Avanço no processamento de dados
No estudo, os cientistas destacam que o desmatamento nos 11 municípios-alvo do plano foi significativo nos últimos anos, motivando um monitoramento, mas isso não seria suficiente para priorizar somente esses locais. São eles: São Félix do Xingu, Altamira, Novo Progresso, Pacajá, Portel, Itaituba e Rurópolis, no Estado do Pará, Apuí e Lábrea, no Amazonas, Colniza, em Mato Grosso, e Porto Velho, em Rondônia.
Os pesquisadores citam que, mesmo com ações de fiscalização concentradas na região, houve aumento de 105% na taxa de devastação entre fevereiro e abril de 2021 se comparada à média nos anos anteriores (2017-2021). Pelos dados do Deter, programa oficial de alertas de desmatamento do Brasil, foram 524,89 km2 de novos pontos de devastação nessas áreas.
“Essa pesquisa valida a importância do Inpe, que há 60 anos forma pesquisadores de ponta e produz ciência e tecnologia, a partir de dados satelitários, para a sociedade e o desenvolvimento nacional. Os avanços no processamento de dados apresentados neste estudo com o uso de inteligência artificial para o planejamento do combate ao desmatamento são críticos para a mitigação de problemas ambientais nacionais e para a construção de um plano de desenvolvimento sustentável para o país”, afirma o chefe da Divisão de Observação da Terra e Geoinformática do Inpe, Luiz Aragão, e um dos autores do artigo.
Àreas prioritárias
O grupo utilizou, entre outras fontes, dados do Prodes – o Projeto de Monitoramento do Desmatamento na Amazônia Legal por Satélite, do Inpe. Desde 1988, o Prodes produz as taxas anuais de desmatamento na região usadas pelo governo brasileiro para definir políticas públicas. Essas taxas são estimadas com base no corte raso identificado em cada imagem de satélite que cobre a Amazônia Legal.
Segundo o último relatório do Prodes, a área desmatada na Amazônia foi de 13.235 km² entre agosto de 2020 e julho de 2021, um aumento de 22% em relação ao período anterior (agosto de 2019 a julho de 2020) e a maior taxa desde 2006 (leia mais em http://terrabrasilis.dpi.inpe.br/app/dashboard/deforestation/biomes/legal_amazon/rates).
“A ideia do artigo surgiu em fevereiro de 2021, quando o Plano Amazônia 2021/2022 foi lançado. À época foi divulgado que o desmatamento nesses 11 municípios representava 70% do total registrado na Amazônia, mas o Prodes estava diferente. Com a evolução do modelo, percebemos que poderíamos apresentar uma ferramenta para ajudar no direcionamento da fiscalização”, completa Mataveli.
Para estabelecer as áreas prioritárias, os pesquisadores definiram primeiramente as chamadas células de grade distribuídas regularmente sobre a Amazônia – regiões de 25 km2 por 25 km2. Com base no algoritmo Random Forest, que constrói automaticamente conjuntos de regressões multivariadas para prever hotspots de desmatamento no ano seguinte, foi determinada uma classe de prioridade para cada uma destas células. Esse método identifica uma fração maior de áreas com risco de derrubada de árvores em relação à região total e a terras públicas.
Foram considerados cinco preditores: as taxas de desmatamento em anos anteriores; a distância para células da grade com alto desmatamento cumulativo em anos anteriores; a distância para infraestruturas (como rodovias e/ou hidrovias); a área total protegida na célula da grade e o número de focos de calor.
Depois houve a definição de três classes de prioridade, com base nas estimativas de desmatamento previsto – baixa (valores abaixo do percentil 70); média (entre os percentis 70 e 90) e alta (acima de 90). Os pesquisadores separaram, então, apenas as células das grades com percentis acima de 90 (alta) para mapear as áreas prioritárias de 2022, chegando aos 414.603 km2.
O método também permite a definição das regiões prioritárias anualmente usando as taxas de corte raso do período anterior, não dependendo das fronteiras geopolíticas. De acordo com os pesquisadores, entre os exemplos que estão fora do Plano Amazônia 2021/2022, mas apareceram como prioridade “alta”, estão Roraima e Acre.
"Priorizar esses 11 municípios será insuficiente para que o Brasil consiga cumprir compromissos internacionais, como o de zerar o desmatamento ilegal até 2028 assumido na COP-26 [Conferência do Clima das Nações Unidas]. Além disso, o Plano Amazônia 2021/2022 traz uma meta de combate ao desmatamento de 8.719 km2 por ano. Mas um decreto de 2018 já estabelecia um limite de 3.925 km2/ano após 2020. Ou seja, menos ambiciosa", completa Mataveli.
O pesquisador se refere ao decreto 9.578, de 2018, que trata da Política Nacional da Mudança do Clima e estabelece uma redução de 80% dos índices anuais de desmatamento na Amazônia Legal em relação à média entre 1996 e 2005. Essa meta está entre as ações a serem adotadas pelo Brasil para conter emissões de gases de efeito estufa.
Na COP-26, além do compromisso de zerar o desmatamento ilegal até 2028, o Brasil se comprometeu a reduzir até 2030 as emissões de gases de efeito estufa em 50% em relação aos níveis de 2005 e a atingir a neutralidade climática até 2050. No entanto, o crescimento das taxas de devastação da Amazônia contrasta com esses objetivos – cerca de 11% das emissões de gases estufa são causadas pela má gestão das florestas e do uso da terra, incluindo o desmatamento e incêndios.
Quando o Plano Amazônia 2021/2022 foi lançado, especialistas criticaram as metas estabelecidas, classificando-as de insuficientes. Isso porque o governo estabeleceu como objetivo reduzir o desmatamento com base na média registrada no período 2016-2020, que já era cerca de 35% maior do que a dos dez anos anteriores.
Ações complementares
A pesquisa sugere que, além de métodos mais diretos para definir alvos de políticas públicas, é necessário uma série de ações complementares para combater a devastação. Aponta entre elas a educação e conscientização ambiental; a identificação e responsabilização dos atores que infringem as leis de proteção ambiental e lucram com o desmatamento ilegal; o incentivo a projetos que invistam em ações voltadas à economia verde e para manter a floresta em pé, além da regularização de terras públicas e indígenas.
"O código que usamos para gerar o modelo e as áreas prioritárias é aberto. Estamos conversando com a plataforma Terra Brasilis para tentar incluir essas áreas nas informações disponíveis para quem quiser acessar. Assim, se algum governo, incluindo estaduais ou municipais, tiver interesse, é possível aplicá-lo na prática", conclui Mataveli.
O artigo Science-based planning can support law enforcement actions to curb deforestation in the Brazilian Amazon, dos pesquisadores Guilherme Mataveli, Gabriel de Oliveira, Michel Chaves, Ricardo Dalagnol, Fabien H. Wagner, Alber H.S. Ipia, Celso H.L. Silva-Júnior e Luiz Aragão, pode ser lido em https://conbio.onlinelibrary.wiley.com/doi/epdf/10.1111/conl.12908
Autor: Luciana Constantino
Fonte: Agência FAPESP
Sítio Online da Publicação: FAPESP
Data: 02/08/2022
Publicação Original: https://agencia.fapesp.br/pesquisa-usa-inteligencia-artificial-para-apontar-area-prioritaria-de-combate-ao-desmatamento-na-amazonia/39251/
quinta-feira, 7 de abril de 2022
Astrofísica brasileira lidera primeira simulação de um buraco negro com uso de Inteligência Artificial
Pela primeira vez na história, o comportamento de um buraco negro foi simulado com o uso de Inteligência Artificial (IA) e aprendizado de máquina. Os cálculos envolvidos no fenômeno astronômico foram realizados de maneira automatizada e programada, um grande avanço para o estudo dos buracos negros e que possibilita novas descobertas em diversas áreas da ciência.
O feito inédito é o resultado da dissertação de mestrado de Roberta Duarte Pereira, formada em Física pelo Instituto de Física de São Carlos (IFSC) da USP e atualmente doutoranda no Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da USP, sob orientação de Rodrigo Nemmen. O projeto, desenvolvido desde 2018, resultou em um artigo sobre o tema, aceito para publicação na revista científica Monthly Notices of the Royal Astronomical Society, uma das mais reconhecidas na área da astronomia.
A pesquisadora explica ao Jornal da USP que o estudo dos buracos negros demanda cálculos extremamente complexos e envolve uma quantidade gigantesca de dados para serem processados, a exemplo da união de esforços internacionais que permitiu a realização da primeira imagem de um buraco negro em 2019.
Além disso, não há capacidade humana de processamento que consiga resolver equações tão complexas como aquelas dos fenômenos astronômicos em questão. “Para compreender os buracos negros, é preciso usar simulações computadorizadas de cálculos numéricos muito avançados, que geralmente envolvem os parâmetros de densidade, pressão e velocidade para cada ponto de análise”, explica Roberta Duarte.

Roberta Duarte Pereira - Foto: Reprodução
Segundo a astrônoma, a cada adição de complexidade nos dados inseridos nos programas computacionais, como melhor qualidade de imagem e campo magnético do astro, o tempo necessário para a resolução dos cálculos aumenta consideravelmente, o que pode atrasar as pesquisas ou até mesmo inviabilizar o estudo — a chamada barreira computacional ou tecnológica.
“É necessário um novo método para acelerar esse tipo de simulação, e o aprendizado de máquina, uma das técnicas de Inteligência Artificial, mostrava bons indícios de uma possível aplicação na área”, diz a especialista.
De início, ela testou o modelo com uma simulação simples de um buraco negro e, aos poucos, acrescentou dados mais complexos. O êxito foi tão grande que levou a pesquisadora a ousar algo ainda mais ambicioso: usar a Inteligência Artificial para calcular um buraco negro totalmente desconhecido para a máquina.
E o resultado foi positivo. “É um grande passo para mostrar que essas técnicas conseguem simular eventos inéditos e otimizar o estudos desses astros”, comenta. Foi a primeira vez na história em que um buraco negro foi simulado com o uso de Inteligência Artificial.
A arquitetura digital escolhida para as simulações foi a chamada U-Net, inicialmente desenvolvida para exames neurológicos de imagem. Como esclarece a pesquisadora, esse tipo de programação conecta a entrada e a saída de cada um dos dados inseridos, compatível com a necessidade de que cada informação sobre o buraco negro interfira nas demais.
Durante a simulação no IAG, o sistema enfrentou alguns erros na modelagem do astro, pois, como se trata da previsão de eventos, as falhas se somam umas às outras. Roberta Duarte explica que era esperado que o erro crescesse linearmente, mas o crescimento real se deu de forma exponencial, devido à quantidade de dados. “Mas logo o programa aprendeu a lidar com a taxa do erro e conseguiu controlar as falhas”, comenta a pesquisadora.
Um avanço leva a outro: aplicações da descoberta
A prova de que é possível simular objetos tão complexos e desafiadores como os buracos negros com Inteligência Artificial é importante por diversos motivos, mas há dois aspectos fundamentais para medir a relevância da descoberta.
O primeiro deles se refere à astrofísica. Roberta Duarte explica que a barreira tecnológica para a compreensão dos buracos negros ocorre no mundo inteiro, não apenas no Brasil. “Ainda há muitas coisas sobre esses astros que nós desconhecemos, pois não há poder computacional para simular ambientes mais complexos usando os métodos tradicionais. Então, introduzir uma nova forma de realizar essas pesquisas é fundamental.”
A especialista também menciona a necessidade de absorver a enorme quantidade de dados obtidos por novos equipamentos, como o telescópio James Webb recém-lançado pela Nasa, e destaca que o processamento dessas informações poderia ser agilizado e otimizado com o uso do aprendizado de máquina.
E o outro aspecto é o da Inteligência Artificial. A pesquisadora comenta que, uma vez provada a possibilidade de usar esse tipo de tecnologia em objetos extremos como os buracos negros, é possível encontrar os limites da própria IA. “Ao testar a Inteligência Artificial além do que seria esperado, podemos reconhecer onde ela precisa ser melhorada e como repensar alguns procedimentos.”
E como essa descoberta da astronomia impacta a vida cotidiana e a produção científica em outras áreas?
Roberta Duarte explica que a teoria da relatividade geral, usada na simulação dos buracos negros, está presente em diversas partes da nossa vida. “O GPS, por exemplo, é influenciado pelo campo gravitacional da Terra e sofre correções relativísticas, o que permite que ele saiba se você está em São Paulo ou no meio do Oceano Pacífico.” Ela acrescenta que a melhor forma de comprovar o funcionamento da relatividade é experimentando-a em uma situação extrema, como os buracos negros.
“Na área da Inteligência Artificial e do aprendizado de máquina, vemos que muitas tecnologias são reutilizadas e reaproveitadas para novas descobertas, como a arquitetura de programação que foi inicialmente desenhada para analisar cérebros e acabou sendo utilizada por nós em um estudo de astronomia. Um avanço é útil para outro e isso abre portas para novos usos dessa tecnologia.”
Além disso, segundo ela, há muita resistência ao uso de Inteligência Artificial na astrofísica, e a comprovação de sua viabilidade deve preparar o terreno para futuras descobertas. “Conseguimos plantar a semente de que IA aplicada tem seu valor, não basta se resumir na teoria e na formulação de algoritmos para entender os fenômenos do mundo real.”
Atualmente no doutorado, a pesquisadora está testando o modelo com dados mais complexos para verificar como o programa se comporta diante dessa situação. “Fico muito feliz que meu estudo tenha sido o primeiro com o uso de IA, espero que mais cientistas trabalhem na área da simulação e reconheçam que é possível unir a Inteligência Artificial e a astrofísica.”
O artigo Black Hole Weather Forecasting with Deep Learning: A Pilot Study tem autoria de Roberta Duarte, Rodrigo Nemmen, João Paulo Navarro.
Autor: Gabriel Gama
Fonte: Jornal da USP
Sítio Online da Publicação: Jornal da USP
Data: 16/03/2022
Publicação Original: https://jornal.usp.br/ciencias/astrofisica-brasileira-lidera-primeira-simulacao-de-um-buraco-negro-com-uso-de-inteligencia-artificial/
O feito inédito é o resultado da dissertação de mestrado de Roberta Duarte Pereira, formada em Física pelo Instituto de Física de São Carlos (IFSC) da USP e atualmente doutoranda no Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da USP, sob orientação de Rodrigo Nemmen. O projeto, desenvolvido desde 2018, resultou em um artigo sobre o tema, aceito para publicação na revista científica Monthly Notices of the Royal Astronomical Society, uma das mais reconhecidas na área da astronomia.
A pesquisadora explica ao Jornal da USP que o estudo dos buracos negros demanda cálculos extremamente complexos e envolve uma quantidade gigantesca de dados para serem processados, a exemplo da união de esforços internacionais que permitiu a realização da primeira imagem de um buraco negro em 2019.
Além disso, não há capacidade humana de processamento que consiga resolver equações tão complexas como aquelas dos fenômenos astronômicos em questão. “Para compreender os buracos negros, é preciso usar simulações computadorizadas de cálculos numéricos muito avançados, que geralmente envolvem os parâmetros de densidade, pressão e velocidade para cada ponto de análise”, explica Roberta Duarte.
Roberta Duarte Pereira - Foto: Reprodução
Segundo a astrônoma, a cada adição de complexidade nos dados inseridos nos programas computacionais, como melhor qualidade de imagem e campo magnético do astro, o tempo necessário para a resolução dos cálculos aumenta consideravelmente, o que pode atrasar as pesquisas ou até mesmo inviabilizar o estudo — a chamada barreira computacional ou tecnológica.
“É necessário um novo método para acelerar esse tipo de simulação, e o aprendizado de máquina, uma das técnicas de Inteligência Artificial, mostrava bons indícios de uma possível aplicação na área”, diz a especialista.
De início, ela testou o modelo com uma simulação simples de um buraco negro e, aos poucos, acrescentou dados mais complexos. O êxito foi tão grande que levou a pesquisadora a ousar algo ainda mais ambicioso: usar a Inteligência Artificial para calcular um buraco negro totalmente desconhecido para a máquina.
E o resultado foi positivo. “É um grande passo para mostrar que essas técnicas conseguem simular eventos inéditos e otimizar o estudos desses astros”, comenta. Foi a primeira vez na história em que um buraco negro foi simulado com o uso de Inteligência Artificial.
A arquitetura digital escolhida para as simulações foi a chamada U-Net, inicialmente desenvolvida para exames neurológicos de imagem. Como esclarece a pesquisadora, esse tipo de programação conecta a entrada e a saída de cada um dos dados inseridos, compatível com a necessidade de que cada informação sobre o buraco negro interfira nas demais.
Durante a simulação no IAG, o sistema enfrentou alguns erros na modelagem do astro, pois, como se trata da previsão de eventos, as falhas se somam umas às outras. Roberta Duarte explica que era esperado que o erro crescesse linearmente, mas o crescimento real se deu de forma exponencial, devido à quantidade de dados. “Mas logo o programa aprendeu a lidar com a taxa do erro e conseguiu controlar as falhas”, comenta a pesquisadora.
A prova de que é possível simular objetos tão complexos e desafiadores como os buracos negros com Inteligência Artificial é importante por diversos motivos, mas há dois aspectos fundamentais para medir a relevância da descoberta.
O primeiro deles se refere à astrofísica. Roberta Duarte explica que a barreira tecnológica para a compreensão dos buracos negros ocorre no mundo inteiro, não apenas no Brasil. “Ainda há muitas coisas sobre esses astros que nós desconhecemos, pois não há poder computacional para simular ambientes mais complexos usando os métodos tradicionais. Então, introduzir uma nova forma de realizar essas pesquisas é fundamental.”
A especialista também menciona a necessidade de absorver a enorme quantidade de dados obtidos por novos equipamentos, como o telescópio James Webb recém-lançado pela Nasa, e destaca que o processamento dessas informações poderia ser agilizado e otimizado com o uso do aprendizado de máquina.
E o outro aspecto é o da Inteligência Artificial. A pesquisadora comenta que, uma vez provada a possibilidade de usar esse tipo de tecnologia em objetos extremos como os buracos negros, é possível encontrar os limites da própria IA. “Ao testar a Inteligência Artificial além do que seria esperado, podemos reconhecer onde ela precisa ser melhorada e como repensar alguns procedimentos.”
E como essa descoberta da astronomia impacta a vida cotidiana e a produção científica em outras áreas?
Roberta Duarte explica que a teoria da relatividade geral, usada na simulação dos buracos negros, está presente em diversas partes da nossa vida. “O GPS, por exemplo, é influenciado pelo campo gravitacional da Terra e sofre correções relativísticas, o que permite que ele saiba se você está em São Paulo ou no meio do Oceano Pacífico.” Ela acrescenta que a melhor forma de comprovar o funcionamento da relatividade é experimentando-a em uma situação extrema, como os buracos negros.
“Na área da Inteligência Artificial e do aprendizado de máquina, vemos que muitas tecnologias são reutilizadas e reaproveitadas para novas descobertas, como a arquitetura de programação que foi inicialmente desenhada para analisar cérebros e acabou sendo utilizada por nós em um estudo de astronomia. Um avanço é útil para outro e isso abre portas para novos usos dessa tecnologia.”
Além disso, segundo ela, há muita resistência ao uso de Inteligência Artificial na astrofísica, e a comprovação de sua viabilidade deve preparar o terreno para futuras descobertas. “Conseguimos plantar a semente de que IA aplicada tem seu valor, não basta se resumir na teoria e na formulação de algoritmos para entender os fenômenos do mundo real.”
Atualmente no doutorado, a pesquisadora está testando o modelo com dados mais complexos para verificar como o programa se comporta diante dessa situação. “Fico muito feliz que meu estudo tenha sido o primeiro com o uso de IA, espero que mais cientistas trabalhem na área da simulação e reconheçam que é possível unir a Inteligência Artificial e a astrofísica.”
O artigo Black Hole Weather Forecasting with Deep Learning: A Pilot Study tem autoria de Roberta Duarte, Rodrigo Nemmen, João Paulo Navarro.
Fonte: Jornal da USP
Sítio Online da Publicação: Jornal da USP
Data: 16/03/2022
Publicação Original: https://jornal.usp.br/ciencias/astrofisica-brasileira-lidera-primeira-simulacao-de-um-buraco-negro-com-uso-de-inteligencia-artificial/
terça-feira, 28 de setembro de 2021
PUCPR: Inteligência artificial reduz sobrecarga do sistema de saúde por conta da pandemia
Atendimentos realizados em plataformas de telessaúde alimentadas por inteligência artificial estão auxiliando a aliviar a sobrecarga do sistema de saúde durante a pandemia do novo coronavírus no país, aponta um estudo brasileiro publicado em junho deste ano.
Um grupo de pesquisadores da Escola de Medicina da Pontifícia Universidade Católica do Paraná (PUCPR), da Fundação Getúlio Vargas (FGV) e do Instituto Laura Fressatto analisou dados de mais de 20 mil atendimentos realizados entre julho a outubro do ano passado, nas cidades de Curitiba, São Bernardo do Campo e Catanduva, as duas últimas em São Paulo.

Úrsula Neves
Jornalista formada pela Universidade Estácio de Sá (UNESA), pós-graduada em Comunicação com o Mercado pela Escola Superior de Propaganda e Marketing (ESPM) e em Gestão Estratégica da Comunicação pelo Instituto de Gestão e Comunicação (IGEC/FACHA)
Referências bibliográficas:
Covid-19: Inteligência artificial reduz sobrecarga do sistema de saúde, aponta pesquisa da PUCPR. 10 de agosto de 2021. Disponível em: https://www.pucpr.br/noticias/covid-19-inteligencia-artificial-reduz-sobrecarga-do-sistema-de-saude-aponta-pesquisa-da-pucpr/
Morales Hugo M. P. et al. COVID-19 in Brazil—Preliminary Analysis of Response Supported by Artificial Intelligence in Municipalities. Frontiers in Digital Health. VOLUME 3. doi: 10.3389/fdgth.2021.648585
Autor: Úrsula Neves
Fonte: pebmed
Sítio Online da Publicação: pebmed
Data: 28/09/2021
Publicação Original: https://pebmed.com.br/pucpr-inteligencia-artificial-reduz-sobrecarga-do-sistema-de-saude-por-conta-da-pandemia/
Um grupo de pesquisadores da Escola de Medicina da Pontifícia Universidade Católica do Paraná (PUCPR), da Fundação Getúlio Vargas (FGV) e do Instituto Laura Fressatto analisou dados de mais de 20 mil atendimentos realizados entre julho a outubro do ano passado, nas cidades de Curitiba, São Bernardo do Campo e Catanduva, as duas últimas em São Paulo.

Úrsula Neves
Jornalista formada pela Universidade Estácio de Sá (UNESA), pós-graduada em Comunicação com o Mercado pela Escola Superior de Propaganda e Marketing (ESPM) e em Gestão Estratégica da Comunicação pelo Instituto de Gestão e Comunicação (IGEC/FACHA)
Referências bibliográficas:
Covid-19: Inteligência artificial reduz sobrecarga do sistema de saúde, aponta pesquisa da PUCPR. 10 de agosto de 2021. Disponível em: https://www.pucpr.br/noticias/covid-19-inteligencia-artificial-reduz-sobrecarga-do-sistema-de-saude-aponta-pesquisa-da-pucpr/
Morales Hugo M. P. et al. COVID-19 in Brazil—Preliminary Analysis of Response Supported by Artificial Intelligence in Municipalities. Frontiers in Digital Health. VOLUME 3. doi: 10.3389/fdgth.2021.648585
Autor: Úrsula Neves
Fonte: pebmed
Sítio Online da Publicação: pebmed
Data: 28/09/2021
Publicação Original: https://pebmed.com.br/pucpr-inteligencia-artificial-reduz-sobrecarga-do-sistema-de-saude-por-conta-da-pandemia/
sexta-feira, 26 de fevereiro de 2021
Projetos desenvolvidos na UFF colocam a Inteligência Artificial a serviço da Saúde
A Inteligência Artificial (IA) vem ganhando um espaço crescente na área da Saúde, com ferramentas de apoio aos profissionais e à otimização de processos. Novas alternativas como o aumento da demanda pelo atendimento virtual, a telemedicina e o monitoramento remoto de enfermos abrem boas perspectivas para esse segmento, em franca expansão. Seguindo essa tendência, a engenheira de Computação Débora Muchaluat Saade coordena, na Universidade Federal Fluminense (UFF), o desenvolvimento de soluções para as áreas de Saúde e Energia, usando a Inteligência Artificial.
“Trabalhamos com projetos de pesquisa aplicada, reunindo Redes de Computadores e Multimídia, que são subáreas da Computação, aplicadas a alguns problemas de Saúde e também de energia elétrica, com as chamadas smart grids, as redes elétricas inteligentes”, resumiu a professora titular do Departamento de Ciência da Computação da UFF. Ao longo de sua trajetória como professora e pesquisadora, ela já recebeu apoio da FAPERJ em diferentes etapas de seus estudos. Para o projeto Smart Health Net, foi contemplada, pela Fundação, no programa Cientista do Nosso Estado. Já o projeto eHealth Rio – uma rede de pesquisa que reúne diversas instituições fluminenses, além da UFF, como o Laboratório Nacional de Computação Científica (LNCC), a Universidade Federal do Rio de Janeiro (UFRJ) e a Universidade do Estado do Rio de Janeiro (Uerj), e também é coordenada por Débora –, ganhou apoio da FAPERJ por meio do programa Redes de Pesquisa em Saúde no Estado do Rio de Janeiro.
Terapia com auxílio da Inteligência Artificial: idosa testa, em laboratório na UFF, jogo imersivo
para estimular a memória (Fotos: Divulgação)
Uma das aplicabilidades de ambos os projetos na área de Saúde é colocar a Inteligência Artificial a serviço de terapias alternativas de tratamento para pacientes com doenças neurodegenerativas, relacionadas ao envelhecimento, como demência, Alzheimer e comprometimento cognitivo leve. Para isso, um dos objetivos é construir uma sala multimídia, no Ambulatório de Idosos da UFF, no campus Mequinho, localizado no Centro, em Niterói. “Estamos reunindo esforços para construir um espaço onde esses pacientes poderão ser estimulados com recursos multimídia imersivos, interativos e sensoriais, em um ambiente planejado para a realização de jogos virtuais e outras terapias para ajudar a ativar capacidades neurocognitivas, como a memória e a concentração. Trata-se de um sistema Multiple Sensorial Media (MulSeMedia), que integra conteúdo multimídia e efeitos sensoriais. São oferecidos efeitos que remetem às sensações de calor e frio, de vento e aromas”, contou.
Outra aplicabilidade dos projetos é pesquisar recursos de IA para desenvolver sistemas de suporte ao diagnóstico para médicos e profissionais de Saúde. “As tecnologias avançadas de IA para auxílio ao diagnóstico e à decisão médica estão na fronteira do conhecimento, e vêm sendo cada vez mais adotadas no mercado como importantes aliadas aos profissionais de Saúde. Com esse suporte, os prestadores de cuidados de Saúde podem se concentrar no paciente e na qualidade do atendimento”, disse Débora, que coordena na UFF o laboratório MídiaCom.
Débora Saade: para a engenheira da Computação e pesquisadora na UFF, são muitas as possibilidades para o uso da Inteligência Artificial na sociedade
Em parceria com profissionais do Centro de Referência e Atenção à Saúde do Idoso do Serviço de Geriatria do Hospital Universitário Antônio Pedro (Crasi/UFF), dirigido pela médica e professora Yolanda Boechat, ela desenvolveu um sistema computacional que emite uma segunda opinião para o médico, no diagnóstico de doenças neurodegenerativas associadas ao envelhecimento. “Essa é uma pesquisa que realizamos há vários anos. O protótipo desenvolvido não é um sistema estático. Ele é atualizado constantemente a partir das informações dos próprios médicos, para que possamos aperfeiçoá-lo. Quando o médico informa ao sistema os dados demográficos do paciente e os resultados dos seus testes neuropsicológicos, técnicas de IA indicam um possível diagnóstico, servindo como uma segunda opinião ou como um apoio para um médico que não é especialista”, detalhou. O sistema, que começou a ser desenvolvido em 2013, com apoio do edital Apoio ao Estudo de Temas Relacionados à Saúde e Cidadania de Pessoas Idosas (Pró-Idoso), lançado então pela FAPERJ, teve resultados promissores e segue para uma segunda aprovação do Comitê de Ética, visando testes na rotina clínica do Crasi/UFF. Na fase inicial do seu desenvolvimento, contou com a parceria do professor Jerson Laks, do Instituto de Psiquiatria da UFRJ.
Os estudos de redes e sistemas inteligentes coordenados por Débora também vêm sendo aplicados na área de Energia, com novas soluções para as redes elétricas inteligentes. “As smart grids são uma tendência sem volta para modernizar as redes elétricas com tecnologias digitais. Existem novas especificações de equipamentos elétricos e protocolos para o intercâmbio de dados, que tornam a rede muito mais eficiente e facilitam o monitoramento da rede elétrica”, explicou. A solução, baseada no conceito de Redes Definidas por Software (em inglês, Software Defined Networks), foi o tema da tese da sua ex-aluna, Yona Lopes, quando esta cursou o doutorado sob sua orientação, tendo recebido bolsa da FAPERJ por meio do programa Doutorado Nota 10. Hoje, Yona é professora do Departamento de Engenharia Elétrica na UFF. Com base nesses estudos, a empresa distribuidora de energia elétrica Taesa está implantando uma solução SDN para teleproteção em uma linha de transmissão entre as subestações Samambaia e Serra da Mesa, no interior de Goiás, a cerca de 200 quilômetros de Brasília.
“São muitas as possibilidades de aplicações práticas da Inteligência Artificial, em todas as áreas do conhecimento”, destacou Débora. Para a pesquisadora, as inovações com base na IA devem se tornar cada vez mais comuns e fazer parte do cotidiano das pessoas nos próximos anos. “Há muitos trabalhos acadêmicos em âmbito internacional que visam ao desenvolvimento de soluções de IA. Elas vão auxiliar o trabalho de profissionais de diversas áreas e não acredito que os algoritmos substituirão as pessoas, mas serão importantes sistemas de apoio”, ponderou.
Autor: Débora Motta
Fonte: FAPERJ
Sítio Online da Publicação: FAPERJ
Data: 25/02/2021
Publicação Original: http://www.faperj.br/?id=4158.2.5
“Trabalhamos com projetos de pesquisa aplicada, reunindo Redes de Computadores e Multimídia, que são subáreas da Computação, aplicadas a alguns problemas de Saúde e também de energia elétrica, com as chamadas smart grids, as redes elétricas inteligentes”, resumiu a professora titular do Departamento de Ciência da Computação da UFF. Ao longo de sua trajetória como professora e pesquisadora, ela já recebeu apoio da FAPERJ em diferentes etapas de seus estudos. Para o projeto Smart Health Net, foi contemplada, pela Fundação, no programa Cientista do Nosso Estado. Já o projeto eHealth Rio – uma rede de pesquisa que reúne diversas instituições fluminenses, além da UFF, como o Laboratório Nacional de Computação Científica (LNCC), a Universidade Federal do Rio de Janeiro (UFRJ) e a Universidade do Estado do Rio de Janeiro (Uerj), e também é coordenada por Débora –, ganhou apoio da FAPERJ por meio do programa Redes de Pesquisa em Saúde no Estado do Rio de Janeiro.
Terapia com auxílio da Inteligência Artificial: idosa testa, em laboratório na UFF, jogo imersivo
para estimular a memória (Fotos: Divulgação)
Uma das aplicabilidades de ambos os projetos na área de Saúde é colocar a Inteligência Artificial a serviço de terapias alternativas de tratamento para pacientes com doenças neurodegenerativas, relacionadas ao envelhecimento, como demência, Alzheimer e comprometimento cognitivo leve. Para isso, um dos objetivos é construir uma sala multimídia, no Ambulatório de Idosos da UFF, no campus Mequinho, localizado no Centro, em Niterói. “Estamos reunindo esforços para construir um espaço onde esses pacientes poderão ser estimulados com recursos multimídia imersivos, interativos e sensoriais, em um ambiente planejado para a realização de jogos virtuais e outras terapias para ajudar a ativar capacidades neurocognitivas, como a memória e a concentração. Trata-se de um sistema Multiple Sensorial Media (MulSeMedia), que integra conteúdo multimídia e efeitos sensoriais. São oferecidos efeitos que remetem às sensações de calor e frio, de vento e aromas”, contou.
Outra aplicabilidade dos projetos é pesquisar recursos de IA para desenvolver sistemas de suporte ao diagnóstico para médicos e profissionais de Saúde. “As tecnologias avançadas de IA para auxílio ao diagnóstico e à decisão médica estão na fronteira do conhecimento, e vêm sendo cada vez mais adotadas no mercado como importantes aliadas aos profissionais de Saúde. Com esse suporte, os prestadores de cuidados de Saúde podem se concentrar no paciente e na qualidade do atendimento”, disse Débora, que coordena na UFF o laboratório MídiaCom.
Débora Saade: para a engenheira da Computação e pesquisadora na UFF, são muitas as possibilidades para o uso da Inteligência Artificial na sociedade
Em parceria com profissionais do Centro de Referência e Atenção à Saúde do Idoso do Serviço de Geriatria do Hospital Universitário Antônio Pedro (Crasi/UFF), dirigido pela médica e professora Yolanda Boechat, ela desenvolveu um sistema computacional que emite uma segunda opinião para o médico, no diagnóstico de doenças neurodegenerativas associadas ao envelhecimento. “Essa é uma pesquisa que realizamos há vários anos. O protótipo desenvolvido não é um sistema estático. Ele é atualizado constantemente a partir das informações dos próprios médicos, para que possamos aperfeiçoá-lo. Quando o médico informa ao sistema os dados demográficos do paciente e os resultados dos seus testes neuropsicológicos, técnicas de IA indicam um possível diagnóstico, servindo como uma segunda opinião ou como um apoio para um médico que não é especialista”, detalhou. O sistema, que começou a ser desenvolvido em 2013, com apoio do edital Apoio ao Estudo de Temas Relacionados à Saúde e Cidadania de Pessoas Idosas (Pró-Idoso), lançado então pela FAPERJ, teve resultados promissores e segue para uma segunda aprovação do Comitê de Ética, visando testes na rotina clínica do Crasi/UFF. Na fase inicial do seu desenvolvimento, contou com a parceria do professor Jerson Laks, do Instituto de Psiquiatria da UFRJ.
Os estudos de redes e sistemas inteligentes coordenados por Débora também vêm sendo aplicados na área de Energia, com novas soluções para as redes elétricas inteligentes. “As smart grids são uma tendência sem volta para modernizar as redes elétricas com tecnologias digitais. Existem novas especificações de equipamentos elétricos e protocolos para o intercâmbio de dados, que tornam a rede muito mais eficiente e facilitam o monitoramento da rede elétrica”, explicou. A solução, baseada no conceito de Redes Definidas por Software (em inglês, Software Defined Networks), foi o tema da tese da sua ex-aluna, Yona Lopes, quando esta cursou o doutorado sob sua orientação, tendo recebido bolsa da FAPERJ por meio do programa Doutorado Nota 10. Hoje, Yona é professora do Departamento de Engenharia Elétrica na UFF. Com base nesses estudos, a empresa distribuidora de energia elétrica Taesa está implantando uma solução SDN para teleproteção em uma linha de transmissão entre as subestações Samambaia e Serra da Mesa, no interior de Goiás, a cerca de 200 quilômetros de Brasília.
“São muitas as possibilidades de aplicações práticas da Inteligência Artificial, em todas as áreas do conhecimento”, destacou Débora. Para a pesquisadora, as inovações com base na IA devem se tornar cada vez mais comuns e fazer parte do cotidiano das pessoas nos próximos anos. “Há muitos trabalhos acadêmicos em âmbito internacional que visam ao desenvolvimento de soluções de IA. Elas vão auxiliar o trabalho de profissionais de diversas áreas e não acredito que os algoritmos substituirão as pessoas, mas serão importantes sistemas de apoio”, ponderou.
Autor: Débora Motta
Fonte: FAPERJ
Sítio Online da Publicação: FAPERJ
Data: 25/02/2021
Publicação Original: http://www.faperj.br/?id=4158.2.5
quinta-feira, 18 de fevereiro de 2021
Inteligência artificial passará a usar veias da mão em reconhecimento; entenda

Amazon cria sensor para realizar pagamentos com a palma da mãoFoto: Divulgação/Amazon
Tecnologias de reconhecimento fácil e leitura de impressão digital estão presentes em boa parte dos modelos mais recentes de smartphones, mas pesquisadores da Universidade de New South Wales, na Austrália, estudam a viabilidade dos atuais métodos biométricos de autenticidade serem substituídos pela identificação do usuário a partir das veias da mão.
"Os padrões das veias ficam sob a pele, portanto, não deixam nenhuma marca, ao contrário das impressões digitais. Elas também são mais seguras do que o reconhecimento facil, porque não estão disponíveis nas redes sociais, ao contrário das fotografias fáciais.
As veias não podem ser obtidas clandestinamente, ao contrário das íris", disse Syed Shah, pesquisador da Escola de Ciência da Computação e Engenharia da Universidade de New South Wales, à CNN.
Segundo Shah, os métodos atuais de verificação de identidade podem ser burlados facilmente por hackers.
Ela argumenta que as impressões digitais podem ser coletadas de uma superfície que alguém tocou e o reconhecimento facial pode ser violado utilizando imagens disponíveis do dono do dispositivo, ou lentes de contato que confundam os mecanismos de reconhecimento da íris.
"Portanto, acreditamos que uma abordagem baseada na veia será muito mais difícil de contornar", afirma.
De acordo com os pesquisadores que desenvolvem o estudo, o reconhecimento pelas veias da mão é capaz de identificar um indivíduo com mais 99% de precisão.
O estudo dos pesquisadores australianos foi publicado na IET Biometrics.
Os estudo foi realizado em um grupo de 35 participantes. A inteligência artificial utilizada é capaz de reconhecer características discriminatórias, que garantem a precisão do reconhecimento.
"O método é ainda mais seguro por conta da necessidade do usuário fazer o gesto de punho para que a veia seja reconhecida, o que torna difícil para um invasor obter padrões de veias furtivamente", explicou Shah.
Segundo os autores, a ferramenta estudada pode ser usada para autenticar indíviduos em dispositivos pessoais, no entanto, ainda requer tecnologia especial para a validação - a equipe da Universidade de New South Wales utilizou câmera 3D para desenvolver o estudo.
(Texto traduzido. Clique aqui para ler a versão original em inglês)
Autor: Amy Woodyatt
Fonte: CNN
Sítio Online da Publicação: CNN
Data: 17/02/2021
Publicação Original: https://www.cnnbrasil.com.br/tecnologia/2021/02/17/inteligencia-artificial-passara-a-usar-veias-da-mao-em-reconhecimento-entenda
Tecnologias de reconhecimento fácil e leitura de impressão digital estão presentes em boa parte dos modelos mais recentes de smartphones, mas pesquisadores da Universidade de New South Wales, na Austrália, estudam a viabilidade dos atuais métodos biométricos de autenticidade serem substituídos pela identificação do usuário a partir das veias da mão.
"Os padrões das veias ficam sob a pele, portanto, não deixam nenhuma marca, ao contrário das impressões digitais. Elas também são mais seguras do que o reconhecimento facil, porque não estão disponíveis nas redes sociais, ao contrário das fotografias fáciais.
As veias não podem ser obtidas clandestinamente, ao contrário das íris", disse Syed Shah, pesquisador da Escola de Ciência da Computação e Engenharia da Universidade de New South Wales, à CNN.
Segundo Shah, os métodos atuais de verificação de identidade podem ser burlados facilmente por hackers.
Ela argumenta que as impressões digitais podem ser coletadas de uma superfície que alguém tocou e o reconhecimento facial pode ser violado utilizando imagens disponíveis do dono do dispositivo, ou lentes de contato que confundam os mecanismos de reconhecimento da íris.
"Portanto, acreditamos que uma abordagem baseada na veia será muito mais difícil de contornar", afirma.
De acordo com os pesquisadores que desenvolvem o estudo, o reconhecimento pelas veias da mão é capaz de identificar um indivíduo com mais 99% de precisão.
O estudo dos pesquisadores australianos foi publicado na IET Biometrics.
Os estudo foi realizado em um grupo de 35 participantes. A inteligência artificial utilizada é capaz de reconhecer características discriminatórias, que garantem a precisão do reconhecimento.
"O método é ainda mais seguro por conta da necessidade do usuário fazer o gesto de punho para que a veia seja reconhecida, o que torna difícil para um invasor obter padrões de veias furtivamente", explicou Shah.
Segundo os autores, a ferramenta estudada pode ser usada para autenticar indíviduos em dispositivos pessoais, no entanto, ainda requer tecnologia especial para a validação - a equipe da Universidade de New South Wales utilizou câmera 3D para desenvolver o estudo.
(Texto traduzido. Clique aqui para ler a versão original em inglês)
Autor: Amy Woodyatt
Fonte: CNN
Sítio Online da Publicação: CNN
Data: 17/02/2021
Publicação Original: https://www.cnnbrasil.com.br/tecnologia/2021/02/17/inteligencia-artificial-passara-a-usar-veias-da-mao-em-reconhecimento-entenda
quarta-feira, 12 de dezembro de 2018
Inteligência artificial ajuda a prever erupções vulcânicas
Os satélites estão fornecendo dados sobre os vulcões ativos do mundo, mas os pesquisadores têm lutado para transformá-los em uma previsão global dos riscos vulcânicos. Isso pode mudar em breve com algoritmos recém-desenvolvidos que podem provocar automaticamente os sinais de dados de risco vulcânico, levantando a perspectiva de que dentro de alguns anos os cientistas poderiam desenvolver um sistema de alerta de vulcão global.
Sem essas ferramentas, os geocientistas simplesmente não conseguem acompanhar as informações que despejam os satélites, diz Michael Poland, cientista encarregado do Observatório do Vulcão Yellowstone, em Vancouver, Washington, que não esteve envolvido em nenhum dos estudos. "O volume de dados é esmagador", diz ele.
Andrew Hooper, um vulcanólogo da Universidade de Leeds, no Reino Unido, que liderou o desenvolvimento de um método, diz que os novos algoritmos devem beneficiar os cerca de 800 milhões de pessoas que vivem perto de vulcões. "Cerca de 1400 vulcões têm potencial para entrar em erupção acima do mar", diz ele. “Cerca de 100 são monitoradas. A grande maioria não é. ”Ambos os métodos foram apresentados esta semana em Washington, D.C., na reunião semestral da União Geofísica Americana (AGU).

Nos últimos anos, com o lançamento dos satélites Sentinel 1A e Sentinel 1B da Agência Espacial Europeia, o campo da vulcanologia recebeu frequentes e repetidas visões de como o solo se desloca ao redor dos vulcões do mundo. Os satélites do Sentinel 1 usam uma técnica chamada interferometria de radar, que compara os sinais de radar enviados e refletidos da Terra para rastrear mudanças na superfície do planeta. O método não é novo, mas, com exclusividade, os satélites do Sentinel 1 revisitam cada ponto no planeta uma vez a cada 6 dias, e a equipe do Sentinel libera essas observações de alta resolução rapidamente. Um grupo de pesquisa no Reino Unido chamado Centro de Observação e Modelagem de Terremotos, Vulcões e Tectônica (COMET) já havia começado a criar um banco de dados desses instantâneos do movimento do solo, chamados interferogramas, para os vulcões do mundo. Sobrepor esse banco de dados à detecção automatizada pareceu natural, dado o sucesso que o aprendizado de máquinas teve em outras formas de detecção de padrões, diz Hooper, que trabalha com o COMET.
Mudanças no movimento do solo tipicamente refletem o deslocamento do magma abaixo do vulcão e não predizem perfeitamente as erupções. Mas, ao contrário dos pontos quentes térmicos ou das plumas de cinzas, que podem ser detectados automaticamente com os satélites meteorológicos, os desvios de terra podem ajudar a prever erupções e não apenas indicar sua ocorrência. "Deformação nem sempre significa erupção", diz Hooper. "Mas há poucos casos em que não temos uma erupção sem deformação".
Primeiro, as equipes tiveram que ensinar seus algoritmos para não confundir mudanças atmosféricas no movimento do solo, algo que os interferogramas são propensos a fazer. Para fazer isso, a equipe de Hooper estabeleceu uma técnica chamada análise de componentes independentes, que aprende a separar um sinal em diferentes partes: como a atmosfera estratificada ou a turbulência de curto prazo, juntamente com mudanças de terra na caldeira ou no flanco de um vulcão. A técnica permite que eles captem tanto novos movimentos de solo quanto mudanças na velocidade, ambos sinais de erupção pendente.
Enquanto isso, outra equipe do COMET liderada por Juliet Biggs, vulcanologista da Universidade de Bristol, no Reino Unido, construiu um segundo algoritmo usando uma forma cada vez mais popular de inteligência artificial chamada redes neurais convolucionais, que usam camadas de neurônios de inspiração biológica para separe as características das imagens em piscinas cada vez mais abstratas, aprendendo a distinguir, por exemplo, os gatos dos cães. Os pesquisadores primeiro treinaram sua rede neural usando interferogramas brutos do Envisat, o precursor da Sentinel, para o qual eles tinham exemplos existentes de erupções. Embora o algoritmo tenha tido algum sucesso em uma análise de 30.000 interferogramas Sentinel, ele ainda produziu muitos falsos positivos. Havia simplesmente poucos exemplos para aprender, diz Fabien Albino, um vulcanologista que trabalha com Biggs em Bristol. “Para aprendizado de máquina, 100 não é nada. Eles querem milhares e milhares ”.
Para superar esse problema, Biggs e seus colegas criaram um conjunto de dados sintéticos de erupções simuladas por computador, geradas por alguns padrões físicos conhecidos. Esses dados sintéticos reduziram a fração de falsos positivos de cerca de 60% para 20%, como relataram hoje na reunião da AGU. Essa tendência só continuará melhorando à medida que mais exemplos de sentinelas forem lançados no algoritmo, diz Albino. “O sistema vai apenas sintonizar como o Google, [introduzindo] milhões de gatos e cachorros, e depois o sistema sabe. Não precisa mais aprender. É estável.
Embora alguns contínuos problemas técnicos no banco de dados de vulcão do COMET tenham impedido as equipes de executarem seus algoritmos em tempo real em todos os vulcões, Hooper tem executado sua técnica em pontos selecionados, incluindo os picos vulcânicos conhecidos como Sierra Negra e Wolf nas Ilhas Galápagos. Ambas entraram em erupção no ano passado, e o programa de Hooper pegou tanto quando sua agitação começou, ele relatou ontem na reunião.
Os dois algoritmos são complementares; a rede neural, por exemplo, não consegue captar mudanças muito lentas na deformação, mas a análise de componentes independentes pode. Então é provável que o sistema de alerta do COMET use ambos, diz Hooper. Por enquanto, o desafio é acelerar a rapidez com que o COMET pode puxar os dados do radar do Sentinel para o banco de dados. Embora esses dados estejam disponíveis no Sentinel dentro de algumas horas, ainda são necessárias várias semanas para que sejam totalmente transferidos. É um trabalho meticuloso, diz Hooper. "Nós pensamos que estaríamos mais adiante."
Ainda assim, o trabalho parece exatamente o que o mundo precisa, diz a Polônia. "É um primeiro passo impressionante", diz ele. "Isso poderia absolutamente revolucionar a detecção desses eventos".
Autor: Paul Voosen
Fonte: Science MAG
Sítio Online da Publicação: Science MAG
Data: 11/12/2018
Publicação Original: https://www.sciencemag.org/news/2018/12/artificial-intelligence-helps-predict-volcanic-eruptions
Sem essas ferramentas, os geocientistas simplesmente não conseguem acompanhar as informações que despejam os satélites, diz Michael Poland, cientista encarregado do Observatório do Vulcão Yellowstone, em Vancouver, Washington, que não esteve envolvido em nenhum dos estudos. "O volume de dados é esmagador", diz ele.
Andrew Hooper, um vulcanólogo da Universidade de Leeds, no Reino Unido, que liderou o desenvolvimento de um método, diz que os novos algoritmos devem beneficiar os cerca de 800 milhões de pessoas que vivem perto de vulcões. "Cerca de 1400 vulcões têm potencial para entrar em erupção acima do mar", diz ele. “Cerca de 100 são monitoradas. A grande maioria não é. ”Ambos os métodos foram apresentados esta semana em Washington, D.C., na reunião semestral da União Geofísica Americana (AGU).

Nos últimos anos, com o lançamento dos satélites Sentinel 1A e Sentinel 1B da Agência Espacial Europeia, o campo da vulcanologia recebeu frequentes e repetidas visões de como o solo se desloca ao redor dos vulcões do mundo. Os satélites do Sentinel 1 usam uma técnica chamada interferometria de radar, que compara os sinais de radar enviados e refletidos da Terra para rastrear mudanças na superfície do planeta. O método não é novo, mas, com exclusividade, os satélites do Sentinel 1 revisitam cada ponto no planeta uma vez a cada 6 dias, e a equipe do Sentinel libera essas observações de alta resolução rapidamente. Um grupo de pesquisa no Reino Unido chamado Centro de Observação e Modelagem de Terremotos, Vulcões e Tectônica (COMET) já havia começado a criar um banco de dados desses instantâneos do movimento do solo, chamados interferogramas, para os vulcões do mundo. Sobrepor esse banco de dados à detecção automatizada pareceu natural, dado o sucesso que o aprendizado de máquinas teve em outras formas de detecção de padrões, diz Hooper, que trabalha com o COMET.
Mudanças no movimento do solo tipicamente refletem o deslocamento do magma abaixo do vulcão e não predizem perfeitamente as erupções. Mas, ao contrário dos pontos quentes térmicos ou das plumas de cinzas, que podem ser detectados automaticamente com os satélites meteorológicos, os desvios de terra podem ajudar a prever erupções e não apenas indicar sua ocorrência. "Deformação nem sempre significa erupção", diz Hooper. "Mas há poucos casos em que não temos uma erupção sem deformação".
Primeiro, as equipes tiveram que ensinar seus algoritmos para não confundir mudanças atmosféricas no movimento do solo, algo que os interferogramas são propensos a fazer. Para fazer isso, a equipe de Hooper estabeleceu uma técnica chamada análise de componentes independentes, que aprende a separar um sinal em diferentes partes: como a atmosfera estratificada ou a turbulência de curto prazo, juntamente com mudanças de terra na caldeira ou no flanco de um vulcão. A técnica permite que eles captem tanto novos movimentos de solo quanto mudanças na velocidade, ambos sinais de erupção pendente.
Enquanto isso, outra equipe do COMET liderada por Juliet Biggs, vulcanologista da Universidade de Bristol, no Reino Unido, construiu um segundo algoritmo usando uma forma cada vez mais popular de inteligência artificial chamada redes neurais convolucionais, que usam camadas de neurônios de inspiração biológica para separe as características das imagens em piscinas cada vez mais abstratas, aprendendo a distinguir, por exemplo, os gatos dos cães. Os pesquisadores primeiro treinaram sua rede neural usando interferogramas brutos do Envisat, o precursor da Sentinel, para o qual eles tinham exemplos existentes de erupções. Embora o algoritmo tenha tido algum sucesso em uma análise de 30.000 interferogramas Sentinel, ele ainda produziu muitos falsos positivos. Havia simplesmente poucos exemplos para aprender, diz Fabien Albino, um vulcanologista que trabalha com Biggs em Bristol. “Para aprendizado de máquina, 100 não é nada. Eles querem milhares e milhares ”.
Para superar esse problema, Biggs e seus colegas criaram um conjunto de dados sintéticos de erupções simuladas por computador, geradas por alguns padrões físicos conhecidos. Esses dados sintéticos reduziram a fração de falsos positivos de cerca de 60% para 20%, como relataram hoje na reunião da AGU. Essa tendência só continuará melhorando à medida que mais exemplos de sentinelas forem lançados no algoritmo, diz Albino. “O sistema vai apenas sintonizar como o Google, [introduzindo] milhões de gatos e cachorros, e depois o sistema sabe. Não precisa mais aprender. É estável.
Embora alguns contínuos problemas técnicos no banco de dados de vulcão do COMET tenham impedido as equipes de executarem seus algoritmos em tempo real em todos os vulcões, Hooper tem executado sua técnica em pontos selecionados, incluindo os picos vulcânicos conhecidos como Sierra Negra e Wolf nas Ilhas Galápagos. Ambas entraram em erupção no ano passado, e o programa de Hooper pegou tanto quando sua agitação começou, ele relatou ontem na reunião.
Os dois algoritmos são complementares; a rede neural, por exemplo, não consegue captar mudanças muito lentas na deformação, mas a análise de componentes independentes pode. Então é provável que o sistema de alerta do COMET use ambos, diz Hooper. Por enquanto, o desafio é acelerar a rapidez com que o COMET pode puxar os dados do radar do Sentinel para o banco de dados. Embora esses dados estejam disponíveis no Sentinel dentro de algumas horas, ainda são necessárias várias semanas para que sejam totalmente transferidos. É um trabalho meticuloso, diz Hooper. "Nós pensamos que estaríamos mais adiante."
Ainda assim, o trabalho parece exatamente o que o mundo precisa, diz a Polônia. "É um primeiro passo impressionante", diz ele. "Isso poderia absolutamente revolucionar a detecção desses eventos".
Autor: Paul Voosen
Fonte: Science MAG
Sítio Online da Publicação: Science MAG
Data: 11/12/2018
Publicação Original: https://www.sciencemag.org/news/2018/12/artificial-intelligence-helps-predict-volcanic-eruptions
Assinar:
Comentários (Atom)
