Para elucidar o ponto:
https://www.answers.com/Q/How_many_megapixels_would_it_take_to_equal_a_35mm_film_maximum_quality
Bem off-topic mas...
Essa comparação é um debate sem fim. Depende de tantas coisas que o melhor mesmo é fazer um teste visual no final e ver se o resultado agrada, pois a maioria das pessoas não são tão críticas com resolução bruta quanto alguns poucos hiper exigentes.
Filme é diferente. Ponto.
O filme é um processo analógico de ponta a ponta. Se por no meio alguma etapa digital, seja o escaneamento ou a impressão, o que você terá no final não é a medida da qualidade da imagem do filme e sim o somatório dos problemas de todos os processos. Isso se chama propagação de erros.
Depende do tipo de filme, da objetiva usada, da qualidade ótica do scanner (esses de mesa são todos uma merda), do fator de compressão na imagem, do numero de bits e da qualidade da eventual impressão final que introduz mais um monte de outras variáveis, como tipo de tinta, tipo de papel, calibração do perfil de cores, e da própria impressora em si.
O DR de um filme é diferente. A disposição dos grãos é aleatória em vez de linear como o arranjo dos pixeis (por isso que no filme não tem moiré), não tem interpolação de cores nem alias, nem color-alias.
Só que quando se digitaliza um filme, um montão de características não originais do filme são introduzidas no pacote.
O único jeito de se comparar um filme com uma imagem digital é visualmente.
Arranje uma mesa de luz boa, com temperatura e intensidade de cor corretas, e uma lupa profissional da Schneider, Bausch&Lomb, Leica, Rodentock ou coisa do tipo, senão vai ter um monte de distorção e de aberração cromática. Lupa chinesa de $10 não serve. Olhe diretamenbte o filme pela lupa.
Compare com a imagem digital na tela de um BOM monitor, calibrado.
Aí sim tire as (suas próprias) conclusões. É o tipo da coisa que só fazendo para saber.