Aos 64, no “grupo de risco”, ele ensina computadores a ler chapas de raio-x e exames de tomografia para diagnosticar a Covid-19

Bruno Leuzinger - 27 ago 2020
Roberto Lotufo, cofundador da NeuralMind e do Laboratório de Computação de Imagens Médicas da Unicamp.
COMPARTILHE

Engenheiro formado pelo ITA, Roberto Lotufo, 64, fez carreira na Unicamp, entre aulas e pesquisas ligadas a processamento de imagens na Faculdade de Engenharia Elétrica e Computação. 

Por dez anos, de 2003 a 2013, foi diretor da Inova, a agência de inovação da Unicamp. Nessa função, pegou gosto pelo mundo das startups e, ao chegar próximo à idade de aposentadoria, empreendeu a NeuralMind, em 2017.

O portfólio da startup de inteligência artificial se baseia em soluções de análise automática de documentos e em um detector de impressões digitais, que consegue identificar se a digital é verdadeira (ou se, ao contrário, foi simulada com uso de uma capa de silicone).

A NeuralMind está desbravando agora uma nova frente. Na semana passada, um consórcio entre a startup e o Laboratório de Computação de Imagens Médicas (MICLab) da Unicamp venceu um edital do IdeiaGov — hub de inovação do governo paulista — para soluções de inteligência artificial no diagnóstico da Covid-19.

A seguir, Roberto fala sobre sua carreira, a participação no edital, os desafios no uso de algoritmos para diagnosticar a doença e os próximos passos antes da solução chegar ao mercado.

 

Como foi sua trajetória de professor e empreendedor até aqui?
Sempre trabalhei com o tema do processamento de imagens, em pesquisa e lecionando na pós-graduação. A partir de 2010, 2012, surgiu o deep learning, “aprendizado profundo”. Essa tecnologia é responsável por grandes avanços em inteligência artificial. Técnicas que usávamos para reconhecer objetos nas imagens mudaram do dia para a noite. 

Fiquei dez anos como diretor da Inova, a agência de inovação da Unicamp. Lá, conheci o mundo do empreendedorismo. Ajudamos a criar iniciativas de ex-alunos, alguns são empreendedores de sucesso. Promovíamos reuniões e às vezes eu pensava: puxa, será que eu também poderia ser empreendedor?

O advento do aprendizado profundo coincidiu com minha chegada à idade de me aposentar. Vi que poderia continuar na Unicamp como professor colaborador e ao mesmo tempo ter uma iniciativa diferente. Foi aí que a Patrícia [Tavares] e eu criamos a NeuralMind.

Em paralelo, eu tinha construído o MICLab, laboratório de processamento de imagens médicas da Unicamp, com a professora Letícia [Rittner]. Colaboramos em projetos da Faculdade de Medicina, principalmente em um de imagens de estruturas cerebrais; tanto a professora Letícia como eu orientamos alunos nessa área de imagem de ressonância magnética do cérebro.

Quando a pandemia começou, tanto os nossos alunos e pesquisadores do MICLab como os colaboradores da NeuralMind nos incentivaram a dar uma contribuição [no combate à Covid-19]. Afinal, a gente conhece bastante de análise de imagem: por que não juntar esforços e tentar encontrar soluções? 

E assim, quando soube do edital, convidei a professora Letícia e formamos um consórcio entre a NeuralMind e o MICLab. 

Quais eram os desafios propostos pelo edital?
O edital trazia três desafios. O primeiro era: dada uma imagem de raio-x, verificar se ela era de um paciente com Covid, outra doença, como pneumonia, ou se era de uma pessoa saudável. O segundo: a partir de um exame de tomografia, verificar também se aquela pessoa tem Covid ou não. 

Havia ainda um terceiro desafio de tomografia: detectar onde estão as lesões do pulmão — achados que podem dizer a respeito de Covid.

Todos os participantes recebiam um dataset de cerca de 600 imagens de raio-x e quase 1 000 exames de tomografia — de pacientes com Covid, com outras patologias e de pessoas saudáveis. Com isso, treinamos os algoritmos, os modelos de aprendizado profundo, para participar da competição 

Essa primeira fase durou uma semana e meia, duas semanas. Uma vez treinado o algoritmo, você aplica esse modelo num segundo conjunto de dados, dos quais a gente não sabia a resposta [de quais pacientes tinham ou não Covid]. Baseado na análise dos resultados eles chegam aos vencedores.

Quais são as dificuldades para se identificar, com o computador, por meio da imagem, se o paciente tem ou não Covid?
Nas imagens de raio-x não existe uma padronização, por exemplo, na intensidade do brilho… Dependendo do equipamento, a imagem pode ficar mais escura, mais clara, o posicionamento também varia. Treinar um computador para conseguir um diagnóstico a partir de uma única chapa de pulmão não é fácil, há muitas nuances. 

As imagens de tomografia são bem mais padronizadas: não importa o hospital ou a clínica onde são feitos, os exames saem com o mesmo contraste. O desafio, nesse caso, é que é uma informação tridimensional.

É como se você “fatiasse” o tórax e tirasse 100, 150 chapas de seções transversais. Em algumas “fatias” o pulmão está saudável, em outras não… O desafio é combinar essas informações num resultado que caiba na memória do computador e a máquina aprender a identificar se a pessoa tem a doença

O terceiro desafio era delinear as regiões de lesão. Você vai em cada “fatia” da tomografia e ensina o computador a encontrar a lesão — é feito um contorno, uma “pintura” em cima dessa lesão para indicar onde estão os problemas. De todos, era o desafio mais difícil.

Como foi a performance da NeuralMind e do MICLab nesses desafios?
Conseguimos um resultado muito surpreendente nos três desafios. Existe um índice chamado AUC – Area Under the Curve, ele é muito utilizado para classificadores em inteligência artificial. 

Não é um índice simples de entender ou de explicar… Ele vai de 0 a 1, sendo que 1 significa que não existe nenhum erro nas predições — e 0.5 significa que é uma predição aleatória. Obtivemos de 0.986 de AUC no diagnóstico de Covid-19 na tomografia, é um índice muito alto

Na identificação de lesões, o DICE é um índice sobre a qualidade do ajuste entre duas áreas: a região real da lesão (delineada por um radiologista) e a região detectada pelo computador. 1 significa que as duas regiões são idênticas. Conseguimos 0.867, que também é um índice bem alto para esse problema.

Como o senhor espera impactar concretamente o diagnóstico de Covid-19 a partir desses dois exames combinados à inteligência artificial?
O raio-x é um exame muito acessível. Mesmo em lugares remotos é possível tirar uma radiografia do tórax, inclusive onde não há acesso a exame de Covid. O que a gente espera é que o médico, num lugar com poucos recursos, possa tirar a chapa do pulmão, fotografar com o celular e mandar a foto para ser processada pela gente.

Com a tomografia é diferente. Lugar que tem o equipamento já é um centro com mais recursos, então é provável que aquele paciente já tenha diagnóstico de Covid. Nesse caso, a gente quer impactar com avanços no prognóstico: saber se aquele paciente, em função das lesões, pode ser monitorado em casa ou se é um paciente de grande risco. 

Quais são os próximos passos para levar essas soluções ao mercado?
Temos condições quase imediatas de colocar no ar esse modelo funcionando, em que você carrega a imagem tanto de raio-x quanto de tomografia e ele já dá o resultado, como fizemos no desafio do edital. Daí, é uma questão de operar esse modelo e fazer os ajustes necessários.

O sucesso de uma iniciativa de inteligência artificial está associado à qualidade e à quantidade de dados que você consegue usar para aperfeiçoar a máquina. Quanto mais dados diversos de outros hospitais, de pacientes de várias regiões, melhor o modelo fica

A proposta do edital é implementarmos essa solução no Hospital das Clínicas e em outros hospitais, ouvindo os médicos para aperfeiçoar o modelo. Teremos a primeira reunião na próxima semana. Com acesso a mais dados, podemos fazer um sistema internacionalmente muito competitivo para ajudar no diagnóstico de Covid.

2050 Total Views 5 Views Today
COMPARTILHE

Confira Também: