SciELO - Scientific Electronic Library Online

 
vol.31 número77O PROCESSO DE ALFABETIZAÇÃO E A FORMAÇÃO DOCENTECONCEÇÕES E PRÁTICAS DE AVALIAÇÃO DA ESCRITA: FORMAÇÃO EM SÃO TOMÉ E PRÍNCIPE índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Compartilhar


Estudos em Avaliação Educacional

versão impressa ISSN 0103-6831versão On-line ISSN 1984-932X

Est. Aval. Educ. vol.31 no.77 São Paulo maio/ago 2020  Epub 04-Jan-2021

https://doi.org/10.18222/eae.v31i77.7103 

ARTIGOS

DEFASAGEM IDADE-SÉRIE E LETRAMENTO CIENTÍFICO NO PISA1

DISTORSIÓN DE GRADO Y EDAD Y LA COMPETENCIA CIENTÍFICA EN PISA

ANDRIELE FERREIRA MURI LEITEI 
http://orcid.org/0000-0002-8612-2396

ALICIA MARIA CATALANO DE BONAMINOII 
http://orcid.org/0000-0001-8778-5362

IUniversity of Montreal, Montreal, Quebec, Canadá; Fundação Universidade Federal de Rondônia (Unir), Rolim de Moura-RO, Brasil; andrielemuri@unir.br

IIPontifícia Universidade Católica do Rio de Janeiro (PUC-Rio), Rio de Janeiro-RJ, Brasil; alicia@puc-rio.br


RESUMO

O artigo analisa a preparação científica de estudantes brasileiros participantes do Pisa (Programme for International Student Assessment - em português Programa Internacional de Avaliação dos Estudantes), considerando a defasagem idade-série. Foram realizadas uma análise exploratória dos resultados e uma regressão linear para investigar o efeito da variável repetência sobre o desempenho em ciências dos estudantes brasileiros. O estudo mostra que: os estudantes brasileiros estão em desvantagem em relação aos estudantes dos países da Organização para Cooperação e Desenvolvimento Econômico (OCDE); a maioria dos estudantes brasileiros não é capaz de realizar as tarefas mais simples estabelecidas pelo Pisa; a diferença entre estudantes brasileiros defasados e estudantes da OCDE alcança 150 pontos em algumas competências; apenas os estudantes brasileiros das séries finais do ensino médio atingem os níveis esperados pelo Pisa.

PALAVRAS-CHAVE: PISA; BRASIL; LETRAMENTO CIENTÍFICO; DEFASAGEM IDADE-SÉRIE

RESUMEN

El artículo analiza la preparación científica de los estudiantes brasileños que participan en el PISA (Programme for International Student Assessment - en español, Programa Internacional de Evaluación de Estudiantes), teniendo en cuenta la distorsión de grado y edad. Se realizó un análisis exploratorio de los resultados y una regresión lineal para investigar el efecto de la variable de repetición en el rendimiento en ciencias de los estudiantes brasileños. El estudio muestra que: los estudiantes brasileños están en desventaja en comparación con los estudiantes de los países de la Organización para Cooperación y Desarrollo Económico (OCDE); la mayoría de los estudiantes brasileños no puede realizar las tareas más simples establecidas por el PISA; la diferencia entre estudiantes brasileños que presentan distorsión de grado y edad y estudiantes de la OCDE alcanza a 150 puntos en algunas competencias; solo los estudiantes brasileños en los años finales de la escuela secundaria alcanzan los niveles esperados por el PISA.

PALABRAS CLAVE: PISA; BRASIL; COMPETENCIA CIENTÍFICA; DISTORSIÓN DE GRADO Y EDAD

ABSTRACT

The article analyzes the scientific preparation of Brazilian students participating in PISA, taking into account the age-grade distortion. An exploratory analysis of the results and a linear regression were carried out to investigate the effect of the grade repetition variable on Brazilian students’ performance in Science. The study shows that: Brazilian students are at a disadvantage compared to students from Organization for Economic Cooperation and Development (OECD) countries; the majority of Brazilian students are not able to perform the simplest tasks defined by PISA; the difference between Brazilian over-age students and OECD students reaches 150 points in some competencies; only Brazilian students in the final grades of secondary education reach the levels expected by PISA.

KEYWORDS: PISA; BRAZIL; SCIENTIFIC LITERACY; AGE-GRADE DISTORTION

INTRODUÇÃO

O Pisa (Programme for International Student Assessment - em português Programa Internacional de Avaliação dos Estudantes), desenvolvido e coordenado pela Organização para Cooperação e Desenvolvimento Econômico (OCDE), é uma avaliação internacional trienal que além de leitura e matemática também focaliza a área de ciências. O desempenho dos estudantes no Pisa é medido por testes e, em cada ciclo de avaliação, uma dessas três áreas cognitivas é o foco principal, com a maior parte dos itens avaliados centrada nessa área (aproximadamente dois terços do total do teste).

O Pisa avalia estudantes de 15 anos e três meses (completos) a 16 anos e dois meses (completos) no início do período de aplicação, idade esta que pressupõe tanto o término da escolaridade básica obrigatória na maioria dos países como também que os estudantes estão, no mínimo, cursando o 7o ano escolar. O Programa é utilizado como uma ferramenta de avaliação em muitas regiões de todo o mundo. Ele foi implementado em 43 países na sua primeira edição (2000), 41 na segunda (2003), 57 na terceira (2006), 75 na quarta avaliação (2009), 65 na quinta (2012), 72 na penúltima (2015) e 79 na última edição realizada em 2018.

Nesse estudo, foram utilizados os dados do Pisa 2006 e 2015, que buscam evidenciar o letramento científico, possibilitando verificar o desempenho dos estudantes nas competências e conhecimentos avaliados em contextos específicos. A visão de letramento científico que constitui a base do Pisa pode ser resumida na seguinte pergunta: o que é importante que os jovens saibam, valorizem e sejam capazes de realizar em situações que envolvem a ciência e tecnologia? (ORGANIZATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT - OECD, 2006, 2008, 2013a, 2016).

O objetivo principal do presente estudo é entender quão cientificamente preparados estão os alunos brasileiros que participaram do Pisa 2006 e 2015. Para tanto, buscamos responder às seguintes questões de pesquisa: como os alunos brasileiros estão situados no contexto internacional em termos de letramento científico no Pisa? Que série os estudantes estão cursando? Como os alunos brasileiros, em fase e defasados, se saem nas competências e áreas avaliadas pelo Programa? Para dar continuidade à discussão e responder às questões postas, o artigo está organizado em cinco seções, além desta breve introdução. Na sequência, aborda-se a definição de letramento científico utilizada no Pisa desde a sua primeira edição e, em seguida, é descrita a abordagem metodológica. Com base nisso, são apresentados e discutidos os resultados e, finalmente, tecidas as considerações finais. Ressalta-se que, dada a natureza do trabalho, a discussão dos aspectos metodológicos também estará presente ao longo das subseções de resultados.

O LETRAMENTO CIENTÍFICO NO PISA

Nas edições do Pisa de 2000 e 2003, cujos focos foram, respectivamente, domínio de leitura e matemática, o letramento científico foi definido de igual maneira:

Letramento Científico é a capacidade de usar o conhecimento científico para identificar questões e tirar conclusões baseadas em evidências, a fim de compreender e ajudar a tomar decisões sobre o mundo natural e as mudanças feitas a ele por meio da atividade humana.2 (OECD, 1999, p. 60; OECD, 2003, p. 133, tradução nossa)

Em 2000 e 2003, a definição incorporou o conhecimento de ciências e entendimentos sobre a ciência dentro do termo “conhecimento científico”. A definição do Pisa 2006 separou e elaborou este termo a partir de seu desdobramento em dois componentes: “conhecimento de ciência” e “conhecimento sobre ciência” (OECD, 2006). Ambas as definições, no entanto, referem-se à aplicação do conhecimento científico para a compreensão e tomada de decisão sobre o mundo natural.

No Pisa 2006, à definição original foi acrescido o conhecimento da relação entre ciência e tecnologia - um aspecto que foi assumido, mas não elaborado nas definições de 2000 e 2003 (OECD, 2013a). Nessa edição, o letramento em ciências de um indivíduo é definido em termos de:

  • Conhecimento científico e utilização desse conhecimento para identificar questões, adquirir novos conhecimentos, explicar fenômenos científicos e estabelecer conclusões sobre questões relacionadas a ciências baseadas em evidências. Por exemplo, quando os indivíduos leem sobre um assunto relacionado à saúde, são capazes de separar os aspectos científicos dos não científicos presentes no texto, e de aplicar conhecimento e justificar decisões pessoais?

  • Compreensão dos aspectos característicos da ciência como uma forma de investigação e conhecimento humano. Por exemplo, as pessoas sabem a diferença entre explicações baseadas em evidências e opiniões pessoais?

  • Conscientização quanto ao modo como a ciência e a tecnologia modelam nossos ambientes material, intelectual e cultural. Por exemplo, os indivíduos conseguem reconhecer e explicar o papel das tecnologias, na medida em que elas influenciam a economia, a organização social e a cultura de uma nação? As pessoas têm consciência das mudanças ambientais e dos efeitos dessas mudanças sobre a estabilidade econômica e social?

  • Disposição para envolver-se com questões relacionadas a ciências e com ideias científicas, como um cidadão reflexivo. Esse aspecto refere-se ao valor que os estudantes dão à ciência, tanto em termos de tópicos como em termos da abordagem científica para entender o mundo e resolver problemas. O fato de memorizar e reproduzir informações não significa necessariamente que os estudantes vão escolher carreiras científicas ou envolver-se em assuntos relacionados às ciências. O conhecimento sobre o interesse científico, o apoio à investigação científica e a responsabilidade na resolução de questões ambientais por parte dos jovens de 15 anos de idade fornecem aos formuladores de políticas indicadores antecipados sobre o apoio dos cidadãos às ciências como uma força para o progresso social (OECD, 2008, p. 39).

As competências avaliadas no Pisa 2006 são amplas e incluem aspectos relacionados à utilidade pessoal, à responsabilidade social e ao valor intrínseco e extrínseco do conhecimento científico (OECD, 2006). Assim, a perspectiva do Programa difere daquelas fundamentadas exclusivamente no currículo e na disciplina de Ciências, mas inclui problemas situados em contextos educacionais e também profissionais, reconhecendo o lugar essencial dos conhecimentos, métodos, atitudes e valores que definem as disciplinas científicas (OECD, 2006). O termo letramento científico foi escolhido pelo Pisa, de acordo com a OECD (2006), por representar os objetivos da educação científica que devem ser aplicados a todos os estudantes. Isso significa uma amplitude e uma natureza aplicadas aos propósitos da educação científica, representando um continuum de conhecimento científico e habilidades cognitivas associadas à investigação científica, que incorpora múltiplas dimensões e inclui as relações entre ciência e tecnologia. Em conjunto, as competências científicas no centro da definição caracterizam a base do letramento científico e o objetivo da avaliação científica do Pisa 2006: avaliar o grau de desenvolvimento das competências (BYBEE, 1997a, 1997b; FENSHAM, 2000; LAW, 2002; MAYER; KUMANO, 2002; GRABER; BOLTE, 1997; MAYER, 2002; ROBERTS, 1983; UNITED NATIONS EDUCATIONAL, SCIENTIFIC AND CULTURAL ORGANIZATION - UNESCO, 1993).

A definição do domínio letramento científico não sofreu alterações nas edições de 2009 e 2012, o que era de se esperar, pois nessas edições o foco recaiu, respectivamente, nas áreas de leitura e de matemática. A incorporação das ideias expressas na definição aparece na penúltima edição do Programa, em 2015, cujo foco foi novamente a área de ciências. A principal diferença é que a noção de “conhecimento sobre a ciência” foi especificada de forma mais clara e dividida em dois componentes - conhecimento procedimental e conhecimento epistemológico (OECD, 2013a, 2016). O conhecimento procedimental está baseado em reconhecer e identificar os traços que caracterizam a pesquisa científica, ou seja, requer um conhecimento dos procedimentos padrão que embasam os diversos métodos e práticas utilizadas para estabelecer o conhecimento científico. Já o conhecimento epistemológico é uma compreensão da lógica das práticas comuns à investigação científica, o status das reivindicações de conhecimento que é gerado e o significado dos termos fundamentais, tais como teoria, hipótese e dados.

Segundo a OECD (2016), as pessoas precisam das três formas de conhecimento científico - conteúdo, procedimental e epistemológico - para executar as competências de letramento científico. Portanto, o Pisa 2015 buscou avaliar em que medida jovens de 15 anos são capazes de exibir essas competências de forma adequada, dentro de uma gama de contextos pessoais, locais, nacionais e globais. Essa perspectiva, assim como a de 2006, difere da de muitos programas escolares de ciências, que são, muitas vezes, dominados por conhecimento de conteúdo. Em vez disso, a matriz do Programa é baseada em uma visão mais ampla do tipo de conhecimento da ciência que seria exigido de membros participantes da sociedade contemporânea. Em resumo, a definição de 2015 se baseia e se desenvolve a partir da definição de 2006.

Letramento Científico é a capacidade de se envolver com as questões relacionadas com a ciência e com a ideia da ciência, como cidadão reflexivo. Uma pessoa letrada cientificamente, portanto, está disposta a participar de discussão fundamentada sobre ciência e tecnologia, o que exige as competências para:

1. explicar fenômenos cientificamente: reconhecer, oferecer e avaliar explicações para fenômenos naturais e tecnológicos;

2. avaliar e planejar investigações científicas: descrever e avaliar investigações científicas e propor formas de abordar questões cientificamente;

3. interpretar dados e evidências cientificamente: analisar e avaliar os dados, afirmações e argumentos, tirando conclusões científicas apropriadas. (BRASIL, 2016, p. 37)

Segundo o relatório do Pisa sobre os dados de 2015 (BRASIL, 2016), tornar-se letrado cientificamente envolve a ideia de que os propósitos da educação na ciência devem ser amplos e aplicados; portanto, o conceito de letramento científico refere-se ao conhecimento tanto da ciência como da tecnologia pautada na ciência. Essas duas áreas diferem em seus propósitos, processos e produtos: enquanto a tecnologia visa a soluções ótimas para problemas humanos, a ciência busca a resposta para questões específicas sobre o mundo natural. Contudo, ambas estão intimamente relacionadas.

O letramento científico requer não apenas o conhecimento de conceitos e teorias da ciência, mas também o dos procedimentos e práticas comuns associados à investigação científica e de como eles possibilitam o avanço da ciência. De acordo com o Pisa (OECD, 2016), indivíduos cientificamente letrados têm o conhecimento das principais concepções e ideias que formam a base do pensamento científico e tecnológico e de como tal conhecimento é obtido e justificado por evidências ou explicações teóricas. Portanto, em 2015, define-se o letramento científico em termos da capacidade de uso do conhecimento e da informação de maneira interativa.

Em suma, o Pisa, bem como as contribuições mais recentes na busca de uma definição consensual de letramento científico, reúne os dois grandes domínios centrados na compreensão do conteúdo científico e da função social da ciência e da tecnologia, incluindo atitudes, crenças e interesses que influenciam decisões e ações a partir de uma perspectiva pessoal, social e cultural. O entendimento de ciência e tecnologia é fundamental na formação de um jovem para a vida na sociedade moderna. Ao ampliar seus interesses no campo da avaliação educacional, e com o intuito de comparar os resultados brasileiros com os de outros países, o Brasil, voluntariamente, vem participando do Pisa desde sua primeira aplicação. A seguir mostramos a abordagem metodológica e, então, iniciamos a apresentação e discussão dos resultados desse trabalho.

ABORDAGEM METODOLÓGICA

Para responder às questões dessa pesquisa, foi feita uma análise exploratória dos resultados do Brasil nas duas edições do Pisa cujo foco foi a área de ciências: 2006 e 2015. Foram explorados e comparados, também, os resultados dos estudantes brasileiros com a média dos países membros da OCDE.

A análise dos resultados utiliza estatística descritiva e compreende análises univariadas e bivariadas. A importância desse tipo de análise reside no fato de nenhuma modelagem estatística de dados poder prescindir de uma análise exploratória que possibilite ao pesquisador o conhecimento do comportamento das variáveis (BABBIE, 1999). As variáveis utilizadas3 nesta primeira parte do estudo foram selecionadas a partir das bases de estudantes do Pisa que se encontram disponíveis no website da OCDE.4

As variáveis correspondem a nossas unidades de análise dos resultados. Comparamos Brasil e OCDE quanto à média geral em ciências, aos níveis de proficiência, às competências em ciências e às áreas do conhecimento em ciências. Para o desempenho entre países, optou-se também por comparar estudantes defasados, em fase e adiantados no Brasil. Tal opção deve-se ao fato de a defasagem idade-série constituir uma das dimensões das desigualdades educacionais e, junto com o desempenho, um dos problemas mais visados pelas políticas públicas federais, estaduais e municipais do país. Além disso, a literatura especializada mostra que a reprovação não é a melhor solução para os problemas de ensino-aprendizagem no Brasil, sendo, ainda, uma medida negativa para o desempenho em ciências no Pisa, principalmente porque esses estudantes não teriam tido a oportunidade de aprender o que é tipicamente avaliado pelo Programa entre jovens de 15 anos de idade. Dados os problemas de fluxo escolar dos estudantes no Brasil, as médias gerais no Pisa foram analisadas em quatro dimensões: geral (todos os estudantes participantes do teste); estudantes defasados (aqueles matriculados no ensino fundamental); estudantes em fase (aqueles matriculados na primeira série do ensino médio); e estudantes adiantados (aqueles matriculados nas segunda e terceira séries do ensino médio).

Essas dimensões foram obtidas por meio da recodificação das variáveis “st01q01 - grade” e “st001d01t - student international grade” do questionário do estudante do Pisa 2006 e 2015, respectivamente, com a criação de uma nova variável categorizada em “defasados”, “em fase” e “adiantados”, o que permitiu observar os resultados dos estudantes brasileiros em cada situação. Para fins de discussão dos resultados, nos baseamos na literatura sobre os efeitos negativos da reprovação como estratégia pedagógica de enfrentamento dos problemas de ensino-aprendizagem no Brasil (FREITAS, 1947; BRANDÃO; BAETA; ROCHA, 1983; COSTA-RIBEIRO, 1991; ALVES; ORTIGÃO; FRANCO, 2007; CRAHAY, 2002; CORREA; BONAMINO; SOARES, 2014). Estabelecemos também um diálogo com achados prévios de trabalhos que analisam o desempenho dos alunos brasileiros no Pisa e, principalmente, discutem a relação entre reprovação e desempenho no Programa (DALTON, 2012; IKEDA; GARCÍA, 2014; GARCÍA-PÉREZ et al., 2014; MATOS; FERRÃO, 2016; FERRÃO et al., 2017; DIRIS, 2017; SASSAKI et al., 2018; ALVARADO et al., 2018) e utilizamos um modelo de regressão linear para investigar o efeito da variável repetência sobre o desempenho em ciências dos estudantes brasileiros no Pisa.

A seguir, são apresentados e discutidos os resultados do trabalho. Num primeiro momento, tratamos dos alunos elegíveis e da série em curso dos estudantes participantes das duas edições do Programa aqui consideradas. Na sequência, focalizamos a média em ciências, os níveis de proficiência, as competências e, por fim, as áreas do conhecimento dos alunos brasileiros nas edições de 2006 e 2015 do Pisa.

A DEFASAGEM IDADE-SÉRIE

Somente na década de 1990 o Brasil conseguiu completar o processo de universalização do ensino fundamental. Ao lado dos recentes progressos reais, tanto na multiplicação quanto no acesso aos bens educacionais, um olhar retrospectivo revela o caráter discriminatório do desenvolvimento da escola de massa no Brasil. A alta taxa de reprovação, por exemplo, é um problema que há muito tempo assola a educação brasileira (FREITAS, 1947; BRANDÃO; BAETA; ROCHA, 1983; COSTA- -RIBEIRO, 1991; ALVES; ORTIGÃO; FRANCO, 2007; CORREA; BONAMINO; SOARES, 2014). Ainda que esse problema tenha diminuído no Brasil, em especial durante parte da década de 1990, a não aprovação (reprovação e abandono) tem persistido com patamares extremamente elevados.

O Pisa tem se revelado um bom instrumento para estudar aspectos relativos à reprovação e diversos autores vêm discutindo essa questão a partir dos resultados dessa avaliação. Percebemos, no entanto, que tais estudos apontam para três perspectivas. A primeira correlaciona a repetência a características demográficas do estudante e da escola. Nesse sentido, destacam-se as contribuições de Matos e Ferrão (2016), por exemplo, que analisam o fenômeno da repetência escolar no Brasil e em Portugal, por meio dos dados da edição de 2012, procurando identificar características dos estudantes e das escolas que estejam associadas à probabilidade de repetência para estimar a variabilidade entre escolas. Nessa mesma linha, Ferrão et al. (2017), também a partir dos dados de 2012, avaliam os efeitos da composição socioeconômica da escola e da proporção de estudantes repetentes na probabilidade de repetência.

A segunda perspectiva se relaciona com estudos que analisam os determinantes da reprovação nas etapas de escolarização e seu impacto no desempenho dos estudantes (GOOS et al., 2012; PEREIRA; REIS, 2014; DIRIS, 2017). Ikeda e García (2014), por exemplo, usando o conjunto de dados do Pisa 2009 e uma amostra de 30 países e economias com mais de 10% de estudantes de 15 anos repetindo uma série pelo menos uma vez, analisam as relações entre repetência e desempenho em leitura. Os autores agruparam os estudantes de acordo com os níveis de ensino (fundamental ou médio) nos quais repetiram uma série. Os resultados mostram que essa distinção entre os estudantes que repetiram séries no ensino fundamental ou no ensino médio é importante, pois a extensão da relação entre repetência e resultados educacionais difere de acordo com o fato de os alunos terem repetido uma série numa ou outra etapa de escolaridade. Na maioria dos países examinados, os alunos que repetiram uma série no ensino médio tendem a ter um desempenho superior ao daqueles que repetiram uma série na escola primária, e os não repetentes tendem a ter um desempenho ainda melhor do que os repetentes da escola secundária.

A terceira perspectiva é transversal às duas anteriores e analisa os impactos da reprovação nos resultados do Pisa. Dalton (2012), por exemplo, examina como a distribuição idade-série e a série, propriamente dita, dos estudantes de 15 anos contribui para o desempenho em ciências de 27 países participantes do Pisa 2006. O autor percebe grandes variações na distribuição dos estudantes pelos anos escolares avaliados e constata que o custo de estar numa série mais baixa do que a dos colegas da mesma idade é mais alto em determinados países como, por exemplo, Grécia e Espanha. Inversamente, os benefícios de estar numa série mais avançada são maiores em outros países como Austrália e Luxemburgo. Em suma, mesmo controlando suas análises por características demográficas no nível do aluno e da escola, Dalton (2012) mostra que o fato de o estudante estar defasado ou avançado tem uma forte influência no desempenho em ciências de muitos países da OCDE. Alvarado et al. (2018) avaliam o impacto da repetência no desempenho em leitura, matemática e ciências dos estudantes colombianos no Pisa 2015. Os resultados desses autores, assim como os dos estudos anteriormente citados, também mostram que os estudantes que não foram retidos têm pontuações acima da média geral do seus país no Pisa. Os autores verificam, a partir de um teste t, diferenças significativas entre as pontuações médias dos estudantes colombianos repetentes e não repetentes nos três domínios avaliados pelo Programa.

Os resultados do Pisa 2009 colocaram o Brasil em forte evidência, ao revelarem que 40% dos estudantes brasileiros repetem ao menos uma vez ao longo da educação básica (OECD, 2010). Relatórios mais atuais do Pisa sugerem que a repetência é uma política dispendiosa, que às vezes é usada como uma forma de punição para sancionar o mau comportamento na escola, podendo reforçar as desigualdades na educação, porque afeta mais frequentemente estudantes socioeconomicamente desfavorecidos (OECD, 2013b, 2013c, 2015). Apesar de ter diminuído durante a última década, ainda é alto o percentual de estudantes que relataram ter repetido um ano letivo. Em 2003, na média dos países da OCDE, 20% dos estudantes avaliados declararam ter repetido um ano escolar pelo menos uma vez, enquanto em 2012 a percentagem de repetentes autorrelatados caiu para 12% (OECD, 2013b).

A edição de 2012 revelou que mais de um em cada três estudantes brasileiros de 15 anos de idade (36%) tinha repetido uma série pelo menos uma vez, registrando, assim, uma das mais altas taxas de repetência entre os países que participam do Pisa (OECD, 2012). Entre as edições de 2003 e 2012, a proporção de estudantes brasileiros de 15 anos de idade que haviam repetido uma série no ensino fundamental diminuiu, mas a prevalência de repetência aumentou no ensino médio, mantendo, assim, a média geral estável.

Na edição de 2006 do Pisa, 40,9% dos estudantes brasileiros participantes da avaliação estavam matriculados na série correspondente à sua faixa etária, ou seja, no 1o ano do ensino médio. No entanto, quase o mesmo percentual (40,6%) ainda estava matriculado nos dois últimos anos do ensino fundamental.5 Estudantes defasados em mais de dois anos, isto é, retidos nos anos escolares anteriores ao 8º do ensino fundamental, não foram, portanto, contemplados pelo Pisa nessa edição.6 Em 2015, os estudantes em fase somavam 37,7% dos 23.141 participantes e os defasados correspondiam a 22,6%, percentual ainda muito alto, mas bem menor ou quase a metade do observado em 2006, incluindo-se o 7o ano do ensino fundamental (Tabela 1).

TABELA 1 Distribuição percentual dos estudantes brasileiros nos anos escolares avaliados no Pisa 2006 e 2015 

EDIÇÃO ENSINO FUNDAMENTAL ENSINO MÉDIO
7O ANO 8O ANO 9O ANO 1O ANO 2O ANO 3O ANO
2006 - 14,3 26,3 40,9 17,7 0,8
2015 3,7 6,5 12,4 37,7 37,2 3,3

Fonte: Resultados do Pisa 2006 e 2015. 2020 (Elaboração própria).

Com a ampliação do ensino fundamental para nove anos de duração, a amostra do Pisa em 2015 incluiu estudantes com idade elegível a partir do 7º ano do ensino fundamental. A transição do ensino fundamental de oito para nove anos abrangeu três ciclos do Pisa, mas não se observam diferenças expressivas na distribuição de estudantes nesses ciclos mesmo com a inclusão do 7º ano na amostra de 2015 (BRASIL, 2016).

De fato, o percentual de matrículas de jovens de 15 anos nas séries avaliadas pelo Pisa e a taxa de cobertura, isto é, o número de estudantes participantes na avaliação dividido pelo número total estimado de brasileiros com 15 anos aumentou consideravelmente em cada edição do Pisa no Brasil (BRASIL, 2016). “Enquanto, em 2003, um total de 2.359.854 jovens de 15 anos estavam matriculados a partir do 8º ano do Ensino Fundamental, em 2015, mais de 2,8 milhões cursavam as séries elegíveis para a avaliação” (BRASIL, 2016, p. 28).

O Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep) (BRASIL, 2016) afirma que, ao longo dos 15 anos passados desde a primeira aplicação do Pisa no Brasil, o país tem melhorado significativamente a qualidade das estatísticas oficiais em educação. “Até 2006, por exemplo, a unidade básica da coleta de dados do Censo Escolar era a escola” (BRASIL, 2016, p. 27). Segundo o Inep (BRASIL, 2016), com a adoção do Educacenso,7 que estabelece como unidades de investigação, além da escola, o estudante e o professor, passaram a ser utilizadas informações mais precisas sobre os alunos de 15 anos elegíveis para o Pisa.

Ainda de acordo com os dados da Tabela 1, é possível perceber um aumento considerável de estudantes brasileiros matriculados nas séries finais do ensino médio: eram 18,5% em 2006 e 40,5% em 2015; mais do que o dobro. Essa diferença, no entanto, pode ser explicada pela mudança no mês de aplicação do teste do Pisa, que implica uma alteração da composição dos alunos em relação às diversas séries. A primeira edição do Pisa (2000) no país foi aplicada em outubro, as duas seguintes (2003 e 2006) em agosto e, desde 2009, o Brasil tem aplicado o Pisa no mesmo mês, em maio. Essa mudança teria feito com que mais alunos na faixa etária de 15 anos estivessem matriculados em séries mais avançadas. Como destacado por Klein (2011), a estabilidade das datas de aplicação da avaliação é importante para uma melhor comparabilidade dos resultados e um fiel diagnóstico da composição do alunado entre as séries avaliadas no Pisa. Segundo o autor, “o mais apropriado seria selecionar os alunos pela idade escolar de 15 anos do país considerado e realizar a aplicação em um número fixo de meses após o início do ano letivo. Essa regra deveria valer para todos os países e para todos os anos” (KLEIN, 2011, p. 719).

Apesar do “avanço”, de acordo com o Inep (BRASIL, 2016), os números também refletem que o trabalho educacional de inclusão de jovens de 15 anos no sistema escolar ainda é um desafio ao país. “Com base nos dados de 2015, em torno de 17% deles estavam fora da escola ou matriculados no 6º ano ou em séries inferiores” (BRASIL, 2016, p. 28). De fato, numa perspectiva internacional (OECD, 2008, 2016), em termos de reprovação, o Brasil ocupava a segunda posição entre todos os países avaliados pelo Pisa 2006 e a terceira entre os países avaliados na edição de 2015.

De maneira geral, os países que apresentam menor média em avaliações internacionais são, justamente, aqueles que registram os maiores índices de defasagem escolar. Os altos índices de atraso para países como o Brasil implicam custos pessoais e socias; um ano escolar adicional para o estudante representa um atraso na finalização da escolaridade básica e no acesso ao mundo do trabalho.

Nas seções a seguir apresentam-se os resultados do Pisa 2006 e 2015 e as médias gerais da OCDE e as do Brasil nas quatro dimensões descritas na abordagem metodológica.

A MÉDIA GERAL EM CIÊNCIAS

Durante a maior parte do século XX, o Brasil apresentou indicadores educacionais bastante desfavoráveis em comparação não só com países europeus, mas também com a maior parte dos países latino-americanos (FRANCO et al., 2007). A comparação dos resultados obtidos pelos estudantes brasileiros coloca o país em situação de desvantagem em relação a quase todos os países que participam do Pisa. Os resultados dos desempenhos no Programa em cada domínio do conhecimento são fornecidos em uma escala na qual a média das médias dos países da OCDE é padronizada em 500, com 100 de desvio padrão. Isso significa que aproximadamente dois terços dos alunos participantes obtiveram uma pontuação entre 400 e 600 pontos.

Ao compararmos a média obtida pelo Brasil (390) com a dos demais países participantes do Pisa 2006, percebe-se que o desempenho geral do país em ciências não é bom. O Brasil está entre os países com desempenho mais baixo, ocupando o 52o lugar entre os 57 países submetidos ao exame nessa edição, estando à frente apenas da Colômbia (53o colocado) quando contraposto aos nossos vizinhos sul-americanos, que apresentam realidades socioeconômicas análogas às nossas.

A média do Brasil na área de ciências se manteve estável desde 2006. Houve uma elevação aproximada de 10 pontos nas notas, que passaram de 390 para 401 pontos, entre 2006 e 2015, mas isso não representa uma mudança estatisticamente significativa (OECD, 2016). Esses resultados são semelhantes à evolução histórica observada entre os países da OCDE onde um leve declínio na média (de 498 para 493 pontos, no mesmo período) também não representa uma mudança estatisticamente significativa.

O relatório nacional produzido pelo Inep para tratar os dados do Pisa 2006 indica, com base em indicadores de nível socioeconômico e cultural, que não seria razoável esperar que o desempenho dos alunos brasileiros fosse similar à média de todos os alunos da OCDE, mas que em ciências deveria ser cerca de 30 pontos (30% do desvio padrão) maior para ficar dentro do esperado para seu nível médio. Segundo o Inep (BRASIL, 2008), a associação positiva entre os indicadores de nível socioeconômico e cultural dos alunos mostra que muitos sistemas educacionais têm dificuldades para superar os determinantes da origem socioeconômica dos alunos. O grande desafio dos sistemas educacionais é garantir bons desempenhos para os estudantes mais pobres. O Brasil é o país participante da América Latina com o valor mais baixo: cerca de 20 pontos abaixo do esperado.

Com base exclusivamente na condição idade-série ajustada, ou seja, considerando somente os estudantes brasileiros em fase na edição de 2006, a marca esperada para o nível socioeconômico e cultural do Brasil ainda não consegue ser atingida. A média dos estudantes brasileiros em fase é de 408 pontos e, portanto, ainda distante em 12 pontos do esperado. Tais estimativas são encontradas apenas no desempenho dos alunos considerados adiantados. Ou seja, com uma média de 447 pontos, os alunos brasileiros com pelo menos um ano de escolaridade a mais do que os estudantes da OCDE conseguem atingir uma pontuação média que, na visão da OCDE, corresponde ao patamar necessário para que os jovens possam exercer plenamente sua cidadania (Tabela 2).

TABELA 2 Média e desvio padrão do desempenho do Brasil e OCDE, em ciências - Pisa 2006 e 2015 

EDIÇÃO PAÍSES MÉDIA DESVIO PADRÃO
2006 Brasil Geral 390 89,3
Defasado 333 69,7
Em fase 408 82,2
Adiantado 447 85,5
OCDE 498 104,1
2015 Brasil Geral 401 89,2
Defasado 335 63,6
Em fase 393 78,0
Adiantado 438 81,9
OCDE 493 94,1

Fonte: Resultados do Pisa 2006 e 2015. 2019 (Elaboração própria).

Em 2015 a diferença entre os alunos brasileiros em relação a 2006 permaneceu praticamente estável. No entanto, os estudantes em fase apresentaram uma média em ciências menor do que aquela da amostra geral e também inferior à média de 2006. Os estudantes adiantados, apesar de em maior proporção nessa edição do Programa, também alcançaram uma média em ciências menor do que a de 2006. Em suma, na edição de 2015, bem como na de 2006, somente os alunos brasileiros matriculados nas séries finais do ensino médio, ou seja, com escolaridade maior do que a esperada, conseguiram atingir os patamares iniciais considerados pela OCDE essenciais para uma participação ativa na sociedade (Tabela 2).

Não poderíamos encerrar esta seção sem deixar de olhar para o desempenho dos estudantes brasileiros defasados. O fato de ter passado pela experiência da reprovação joga a média dos estudantes brasileiros pelo menos meio desvio padrão para baixo em relação à média geral. Interessados na intensidade da associação entre a proficiência em ciências e a situação dos estudantes brasileiros defasados, implementamos o seguinte modelo por meio de regressão linear:

Proficiência=b0+b1(defasado)+e (1)

Onde: β0 é a média dos estudantes que não passaram pela experiência da reprovação; e β1 indica o quanto os resultados de ciências de estudantes defasados diferem daqueles ditos não defasados.

Assim, a Tabela 3 mostra em até quantos pontos a média de um estudante brasileiro avaliado no Pisa, em 2006 e 2015, pode ser reduzida quando se considera sua reprovação.

TABELA 3 Coeficientes de regressão e R2 referentes ao modelo proficiência = β0 + β1(defasado) + e para o Brasil no Pisa 2006 e 2015 

EDIÇÃO MODELO COEFICIENTE DE REGRESSÃO ERRO PADRÃO R2
2006 Constante 420,98 1,066 0,227
Defasado -87,475 1,674
2015 Constante 417,077 0,592 0,155
Defasado -81,388 1,248

Fonte: Resultados do Pisa 2006 e 2015. 2019 (Elaboração própria).

De acordo com os dados da Tabela 3, o R2 do modelo de regressão é de 0,22 em 2006 e 0,15 em 2015. Isso significa que a variável defasados explica cerca de 22% e 15% da proficiência média, respectivamente, em 2006 e 2015. Assim, essa variável se ajusta melhor ao modelo rodado para 2006, pois seu poder explicativo é maior em 2006 do que em 2015. Importa ressaltar que se trata de um modelo de regressão linear simples, sem a inclusão de variáveis que podem controlar o efeito de ser defasado na proficiência média. De qualquer forma, os dados informam que essa variável explica melhor a proficiência média em 2006 do que em 2015. Resultados semelhantes são encontrados por Ikeda e Garcia (2014), em que a repetência sozinha explica a variância do desempenho médio dos estudantes brasileiros em leitura em 21% (R2 = 0,21), na edição de 2009.

Na Tabela 3, verifica-se também que, em 2006, os alunos defasados possuíam cerca de 87 pontos a menos do que os não defasados no teste de ciências do Pisa, indicando que esses alunos tinham, em média, 333,15 pontos. Em 2015, a média dos alunos defasados é cerca de 3 pontos maior do que a média desses alunos em 2006, e possuem, em média, 81 pontos a menos que os não defasados.

Comparando as médias de 2006 com 2015, podemos perceber que os alunos não defasados tiveram média um pouco menor (cerca de 417 pontos) em 2015 do que em 2006 (cerca de 420 pontos). Já os alunos defasados tiveram em 2015 média um pouco maior (cerca de 336 pontos) do que em 2006 (cerca de 333 pontos). Nesse sentido, a variação das médias entre esses dois grupos de estudantes diminuiu no período analisado. A boa notícia é que os alunos defasados estão conseguindo reduzir, mesmo que timidamente, a diferença em relação aos não defasados. Futuras edições do Pisa poderão informar se a diminuição da desigualdade entre grupos de alunos defasados e não defasados é uma tendência ou um evento pontual nos resultados de 2015. Apesar disso, a notícia ruim é que os estudantes não defasados não estão conseguindo melhorar suas médias de desempenho nos testes de ciências do Pisa.

A comparação do desempenho individual de estudantes defasados e não defasados é uma questão central principalmente para fins de elaboração de novas políticas (FERRÃO et al., 2017). Os resultados apresentados aqui colocam os estudantes brasileiros não apenas em situação de extrema desvantagem em relação a outros estudantes no contexto internacional, mas também abaixo do que seria o menor nível de desempenho estabelecido pelo Pisa, como será visto na subseção a seguir.

OS NÍVEIS DE PROFICIÊNCIA DO PISA

Para facilitar a interpretação dos resultados, o Pisa estabeleceu, em cada domínio ou área de avaliação, vários níveis de desempenho baseados na classificação da pontuação associada às habilidades que os estudantes devem possuir para alcançar a pontuação correspondente. Segundo a própria OCDE, a classificação possui dois objetivos: catalogar o desempenho dos estudantes e descrever o que são capazes de fazer.

A escala de ciências no Pisa 2015 foi dividida em oito níveis de proficiência, seis deles alinhados com os níveis definidos em 2006. A descrição de cada nível define os conhecimentos e habilidades necessários para completar as tarefas propostas na prova e foi feita com base nas demandas cognitivas exigidas. Os estudantes com proficiência abaixo do nível 1, em 2006, e do nível 1a, em 2015, provavelmente conseguem resolver as tarefas desse nível, mas têm baixa probabilidade de completar as dos níveis superiores da escala. O nível 6 inclui as tarefas mais desafiadoras em termos de conhecimentos e habilidades. Os estudantes com valores de proficiência localizados nesse nível têm alta probabilidade de realizar as tarefas desse e dos outros níveis da escala.

A Tabela 4 mostra a distribuição dos estudantes brasileiros e da OCDE nos níveis de proficiência do Pisa. A escala do Pisa, como já mencionado, apresentava seis níveis em 2006 - do nível 1 ao 6 - e oito em 2015 - do nível abaixo de 1b ao nível 6. Para o presente estudo, criamos o nível 0, que representa o grupo de alunos que não atingiram o nível 1 de proficiência estabelecido pelo Pisa (média em ciências de, no mínimo, 334,9 pontos) nas duas edições.

TABELA 4 Distribuição percentual dos estudantes brasileiros e da OCDE nos níveis de desempenho de ciências no Pisa 2006 e 2015 

EDIÇÃO PAÍSES NÍVEIS DE PROFICIÊNCIA
NÍVEL 0
(abaixo de 334,9)
NÍVEL 1
(de 334,9 a 409,5)
NÍVEL 2
(de 409,5 a 484,1)
NÍVEL 3
(de 484,1 a 558,7)
NÍVEL 4
(de 558,7 a 633,3)
NÍVEL 5
(de 633,3 a 707,9)
NÍVEL 6
(acima de 707,9)
2006 Brasil Geral 27,9 33,3 23,7 11,2 3,4 0,5 0,0
Defasado 51,8 34,7 11,7 1,6 0,2 0,0 0,0
Em fase 18,6 34,6 28,3 13,7 4,4 0,4 0,0
Adiantado 8,2 26,2 32,4 23,3 8,2 1,6 0,1
OCDE 5,1 14,0 24,0 27,7 20,3 7,7 1,2
2015 Brasil Geral 24,3 32,4 25,4 13,1 4,2 0,6 0,0
Defasado 51,6 35,2 11,8 1,3 0,1 0,0 0,0
Em fase 22,6 39,0 25,9 9,7 2,5 0,3 0,0
Adiantado 9,8 28,1 33,6 20,7 6,6 1,1 0,1
OCDE 5,5 15,7 24,8 27,2 19,0 6,7 1,1

Fonte: Resultados do Pisa 2006 e 2015. 2019 (Elaboração própria).

Observa-se, na Tabela 4, que os maiores percentuais de estudantes brasileiros na amostra geral, que considera todos os alunos participantes do país, encontram-se nos níveis mais baixos da escala (27,9% no nível 0 e 33,3% no nível 1 em 2006 e 24,3% no nível 0 e 32,4% no nível 1 em 2015), o que significa um total de, aproximadamente, 60% dos estudantes brasileiros alocados nos níveis mais básicos do Programa nas duas edições consideradas.

Em avaliações de larga escala, como é o caso do Pisa, é previsível que poucos alunos atinjam os níveis mais altos. O esperado é que a maioria consiga alcançar os níveis 2 ou 3 da escala de proficiência. Isso pode ser observado entre os países membros da OCDE, entre os quais mais da metade dos alunos (51,7% em 2006 e 52% em 2015) estão alocados nos níveis intermediários 2 e 3. Infelizmente essa não é a realidade da amostra geral brasileira, como já vimos, e tampouco dos estudantes em fase no país: os alunos nos níveis 2 e 3 representavam 42% em 2006 e apenas 35,6% em 2015. Ou seja, bem menos da metade dos alunos em fase no Brasil conseguiram atingir o patamar que a OCDE estabelece como necessário para que os jovens possam exercer plenamente sua cidadania. Apenas os alunos brasileiros matriculados nos 2o e 3o anos do ensino médio foram capazes de atingir o patamar estabelecido pela OCDE (55,7% em 2006 e 54,3% em 2015).

Os resultados da edição de 2006 colocam o Brasil no nível 1 e a OCDE no nível 3 de proficiência do Pisa. Segundo a OECD (2008), no nível 1, os estudantes têm limitado conhecimento científico, de forma tal que só conseguem aplicá-lo em algumas poucas situações familiares. Eles são capazes de apresentar explicações científicas óbvias e tirar conclusões de evidências explicitamente apresentadas. Já no nível 3, os estudantes são capazes de identificar questões científicas claramente definidas em uma série de contextos: selecionar fatos e conhecimentos para explicar fenômenos e aplicar modelos simples e estratégias de pesquisa; interpretar e usar conceitos científicos de diferentes disciplinas e aplicá-los diretamente; e, ainda, dissertar sobre os fatos e tomar decisões baseadas em conhecimento científico.

O Brasil consegue ascender um nível no Pisa em 2006 e em 2015, mas isso exige pelo menos um ou dois anos a mais de escolaridade. Nossos alunos adiantados, matriculados nos 2o e 3o anos do ensino médio, alcançaram o nível 2 em ambas as edições do Programa e, assim, de acordo com a OCDE, conseguem recorrer a conhecimentos cotidiano e procedimental básico para identificar uma explicação científica adequada, interpretar dados e constatar a questão abordada em um projeto experimental simples. Eles são capazes de usar conhecimento científico básico ou cotidiano para identificar uma conclusão válida em um conjunto simples de dados e demonstram ter conhecimento epistemológico básico ao conseguirem reconhecer questões que podem ser investigadas cientificamente.

A situação dos alunos defasados no Brasil, ou seja, daqueles matriculados no ensino fundamental é muito complexa e converge com os achados de Muri (2015), que sugerem que a defasagem escolar inviabiliza a obtenção de melhores resultados em ciências. Mais de 50% dos alunos brasileiros que já passaram pela experiência da reprovação não conseguem atingir o nível mais básico estabelecido pelo Pisa. Eles representavam 51,8% dos alunos brasileiros no nível 0 em 2006 e 51,6% em 2015. Os estudantes defasados não conseguem avançar na escala de proficiência. Em ambas as edições do Programa, eles ficaram retidos nos níveis 0 e 1 e pouco mais de 10% conseguiram atingir o nível 2.

Apenas uma pequena proporção de alunos atinge os níveis mais altos de proficiência do Pisa - níveis 5 e 6. Nesses dois níveis os alunos são capazes de identificar, explicar e aplicar o conhecimento científico e sobre a ciência em uma variedade de situações de vida complexas. Os dados mais atuais do Pisa, de 2015 (OECD, 2016), revelam que mais da metade de todos os estudantes de alto desempenho no Pisa vivem em apenas quatro países: Estados Unidos, Japão, China e Alemanha. A seguir, analisam-se os resultados dos alunos brasileiros de acordo com as competências em ciências no Pisa.

AS COMPETÊNCIAS EM CIÊNCIAS

Os estudantes de cada país tiveram resultados mais altos ou mais baixos em determinadas competências medidas pelo Pisa. Em 2006, o Programa avaliou a capacidade dos estudantes nas seguintes competências: “identificar questões científicas”; “explicar fenômenos cientificamente”; e “usar evidência científica”.

A competência “identificar questões científicas” envolve reconhecer e comunicar questões que podem ser investigadas cientificamente e saber o que está envolvido nessas investigações. Inclui reconhecer questões de cunho científico como, por exemplo, o que deve ser comparado, quais variáveis devem ser alteradas ou controladas, quais informações adicionais são necessárias, ou que ações devem ser realizadas para que dados relevantes sejam coletados. Também envolve o reconhecimento de características relevantes da investigação científica e a identificação de palavras-chave para pesquisar questões científicas.

Na competência “explicar fenômenos cientificamente”, os estudantes demonstram sua compreensão aplicando conhecimentos científicos adequados em uma situação determinada. Essa competência inclui a descrição ou a explicação científica para fenômenos e a previsão de mudanças, podendo envolver, também, reconhecimento ou identificação de descrições, explicações e previsões apropriadas.

Por fim, “usar evidência científica” significa entender descobertas científicas como evidências para demandas ou conclusões. Implica a capacidade para avaliar a informação científica e chegar a conclusões baseadas em provas científicas e sua futura comunicação. Além disso, inclui: habilidade de selecionar conclusões alternativas em relação a evidências e informá-las; exposição de razões contra ou a favor de determinada conclusão, com base nos dados fornecidos; identificação de suposições feitas para se chegar a uma conclusão; e reflexão sobre as implicações sociais da ciência e do desenvolvimento tecnológico.

Como já mencionado, a definição de letramento científico em 2015 se baseia na definição de 2006. Em 2015, os estudantes participantes do Pisa também foram avaliados em três competências, mas a terminologia de duas das três competências mudou em relação à edição de 2006. Apenas a competência “explicar fenômenos cientificamente” se manteve inalterada. Os relatórios técnicos da OCDE não trazem nenhum registro sobre a mudança nos títulos das competências, no entanto, registram que outras alterações, como, por exemplo, a elaboração dos conceitos de conhecimento procedimental e epistêmico, representam uma especificação mais detalhada de aspectos particulares que foram incorporados ou assumidos em definições anteriores (OECD, 2013c). As competências avaliadas em 2015 foram: explicar fenômenos cientificamente (reconhecer, oferecer e avaliar explicações para fenômenos naturais e tecnológicos); avaliar e planejar investigações científicas (descrever e avaliar investigações científicas e propor formas de abordar questões cientificamente); e interpretar dados e evidências cientificamente (analisar e avaliar os dados, afirmações e argumentos, tirando conclusões científicas apropriadas).

Obviamente, assim como na média geral em ciências, Brasil e OCDE também mostraram desempenhos distintos nas diferentes competências avaliadas pelo Programa. A Tabela 5 apresenta as médias do país e da OCDE, nas diferentes competências avaliadas em 2006.

TABELA 5 Média e desvio padrão do desempenho do Brasil e OCDE nas competências de ciências avaliadas no Pisa 2006 

    COMPETÊNCIAS
EXPLICAR FENÔMENOS CIENTIFICAMENTE IDENTIFICAR QUESTÕES CIENTÍFICAS USAR EVIDÊNCIA CIENTÍFICA
MÉDIA D. PADRÃO MÉDIA D. PADRÃO MÉDIA D. PADRÃO
Brasil Geral 390 93,8 398 94,6 378 107,9
Defasado 338 71,7 343 78,5 308 83,5
Em fase 406 85,6 415 85,8 401 94,5
Adiantado 446 90,2 450 86,6 447 95,5
OCDE 500 101,9 498 97,8 499 110,2

Fonte: Resultados do Pisa 2006. 2019 (Elaboração própria).

A competência em que o Brasil apresentou melhores resultados em 2006, seja na amostra geral ou nos grupos de estudantes defasados, em fase e adiantados, é a de “identificar questões científicas”. No entanto, os resultados brasileiros ficaram aquém da média dos países da OCDE. “Identificar questões científicas” é a competência na qual a OCDE registrou a menor média. Contudo, essa média chega a ser até 100 pontos maior do que as do Brasil, mesmo quando considerado apenas o grupo de estudantes em fase no país.

Na competência “explicar fenômenos cientificamente”, o desempenho médio do Brasil foi idêntico à média geral do país em ciências (390). Essa é a competência na qual, via de regra, os estudantes dos países da OCDE se saem melhor, em média. Os menores resultados obtidos pelos estudantes brasileiros relacionam-se com o uso prático das evidências que a ciência oferece. Nessa competência, o Brasil apresentou seu pior desempenho, com 12 pontos abaixo de sua média geral. Mesmo os estudantes brasileiros adiantados ficaram atrás dos alunos da OCDE em mais de 50 pontos, ou seja, meio desvio padrão.

A realidade dos estudantes brasileiros defasados se repete ao longo das competências, como ocorreu entre os níveis de proficiência estabelecidos pelo Pisa. As médias foram também mais baixas do que as da amostra geral, bem como inferiores àquelas dos grupos dos estudantes em fase e adiantados. O fato de ter sido reprovado diminui a competência de um estudante brasileiro de “explicar fenômenos cientificamente”, “identificar questões científicas” e “usar evidência científica” em pelo menos 52, 55 e 70 pontos, respectivamente.

Em 2015, os estudantes brasileiros, de maneira geral, se saíram melhor na competência “explicar fenômenos cientificamente” (Tabela 6), o mesmo ocorrendo entre os estudantes que compõem os grupos de defasados, em fase e adiantados. Ou seja, em todas as dimensões, os estudantes brasileiros tiveram um desempenho levemente maior na competência “explicar fenômenos cientificamente”. As médias da OCDE foram as mesmas nas três competências avaliadas.

TABELA 6 Média e desvio padrão do desempenho do Brasil e OCDE nas competências de ciências avaliadas no Pisa 2015 

COMPETÊNCIAS
EXPLICAR FENÔMENOS CIENTIFICAMENTE AVALIAR E PLANEJAR INVESTIGAÇÕES CIENTÍFICAS INTERPRETAR DADOS E EVIDÊNCIAS CIENTIFICAMENTE
MÉDIA D. PADRÃO MÉDIA D. PADRÃO MÉDIA D. PADRÃO
Brasil Geral 403 92,3 398 91,5 398 90,0
Defasado 337 68,4 335 70,8 332 66,9
Em fase 395 84,3 386 84,5 386 81,4
Adiantado 441 89,4 432 89,9 437 85,8
OCDE 493 99,9 493 103,1 493 101,4

Fonte: Resultados do Pisa 2015. 2019 (Elaboração própria).

Novamente, mesmo quando comparamos o grupo brasileiro de estudantes de maior proficiência - os alunos adiantados - na sua melhor competência - “explicar fenômenos cientificamente” com 441 pontos -, os nossos estudantes ficam meio desvio padrão aquém dos alunos da OCDE, com uma diferença de 52 pontos e uma média de 493 pontos.

Nas demais competências, as diferenças se aproximam de 60 pontos e, entre os estudantes defasados, chegam a mais de 150 pontos em relação aos alunos da OCDE (um e meio desvio padrão). Mesmo o grupo brasileiro de estudantes em fase, iguais em anos de escolaridade aos membros da OCDE, fica pelo menos um desvio padrão abaixo dos alunos da OCDE em qualquer das competências avaliadas pelo Pisa 2015. Além das competências, foi possível analisar, também, o desempenho dos estudantes no conhecimento das diferentes áreas de ciências. Esse aspecto é abordado na seção seguinte.

O CONHECIMENTO DAS DIFERENTES ÁREAS DE CIÊNCIAS

O conteúdo a ser avaliado no Pisa é selecionado a partir dos campos principais da física, química, ciências biológicas e ciências da Terra e do espaço, de acordo com três critérios: “utilidade do conhecimento científico na vida diária”; “relevância das ciências e da política educacional durante os próximos anos”; e “necessidade de combinar o conhecimento com alguns processos científicos”.

As tarefas previstas no teste do Pisa em 2006 envolviam conhecimentos científicos de dois tipos: conhecimento sobre ciências, que foi dividido em investigação científica e explicações científicas; e conhecimento de ciências, que focaliza o conhecimento do mundo natural em áreas de conteúdo, tais como: sistemas físicos, sistemas vivos, Terra e sistemas espaciais e sistemas tecnológicos.

Como já mencionado, a principal diferença entre o Pisa 2006 e o 2015 é que a noção de “conhecimento sobre ciências” foi explicitada com base em sua divisão em dois componentes: “conhecimento procedimental” e “conhecimento epistemológico”. Assim, as três competências requeridas para o letramento científico em 2015 exigem, também, três formas de conhecimento: “conhecimento de conteúdo”, que se refere ao conhecimento dos fatos, conceitos, ideias e teorias sobre o mundo natural estabelecido pela ciência, equivalendo ao “conhecimento de ciências” da edição de 2006; “conhecimento procedimental”, que é o entendimento dos procedimentos padrão que os cientistas usam para obter dados confiáveis e válidos; e “conhecimento epistemológico”, que é aquele que define as características essenciais para o processo de construção do conhecimento científico.

Alguns países, como o Brasil, obtiveram desempenho substancialmente mais alto em “conhecimento sobre ciências”, ou seja, conhecimento sobre os propósitos e a natureza da investigação científica e das explicações científicas, do que em “conhecimento de ciências”, conhecimento do mundo natural e da forma como este se articula com diferentes disciplinas científicas (Tabela 7).

TABELA 7 Média do desempenho de Brasil e OCDE nos conhecimentos científicos requeridos no Pisa 2006 e 2015 

CONHECIMENTOS CIENTÍFICOS REQUERIDOS NO PISA
PROCEDIMENTAL E EPISTEMOLÓGICO CONTEÚDO
SISTEMAS FÍSICOS SISTEMAS VIVOS TERRA E SISTEMAS ESPACIAIS
2006 Brasil Geral 394 385 403 375
OCDE 500 500 502 500
2015 Brasil Geral 401 396 404 395
Defasado 339 332 341 324
Em fase 392 387 396 387
Adiantado 438 438 443 437
OCDE 493 493 492 494

Fonte: Dados disponíveis em http://PISAcountry.acer.edu.au/ e da base de dados de 2015. 2020 (Elaboração própria).

Ainda que não tenha conseguido atingir a média dos países da OCDE, o Brasil, na amostra geral, conseguiu ultrapassar a barreira dos 400 pontos no tocante ao “conhecimento de ciências”, mas especificamente no conhecimento dos “sistemas vivos” tanto em 2006 quanto em 2015. Nas médias da OCDE, os resultados tendem, ainda que muito sutilmente, a ser melhores nas questões que demandam o “conhecimento de ciências” e, assim como no Brasil, o conteúdo de maior aproveitamento reside nas categorias “sistemas vivos” (502), em 2006, e “Terra e sistemas espaciais” (494), em 2015. O relatório do Pisa (OECD, 2008) reporta que um melhor desempenho em “conhecimento de ciências” sugere que o currículo tem dado ênfase à transmissão de conhecimento científico específico. No entanto, se compararmos as médias das subescalas “conhecimento de ciências” e “conhecimento sobre ciências”, podemos observar, a partir da Tabela 7, que o Brasil, diferentemente da OCDE, obteve um melhor desempenho geral nas questões ligadas ao segundo tipo de conhecimento avaliado. Conhecimento esse que abrangia, em 2006, questões relacionadas à compreensão da natureza, do trabalho científico e da reflexão científica e, em 2015, o conhecimento dos procedimentos padrão que os cientistas usam para obter dados confiáveis e válidos que definem as características essenciais para o processo de construção do conhecimento científico.

Infelizmente, nessa subseção, só foi possível apresentar dados dos estudantes brasileiros defasados, em fase e adiantados para a edição de 2015. Os dados de 2006 foram extraídos do website do principal consórcio organizador do Pisa - o Australian CouncilforEducational Research (Acer) - já que os valores plausíveis dos conhecimentos científicos não estão disponíveis na base de dados. As limitações da ferramenta supracitada não permitiram calcular as médias para os grupos de estudantes. Do mesmo modo, não estão disponíveis na base de dados do Acer, e tampouco na base de dados do Programa, as médias referentes aos sistemas tecnológicos que também compunham o “conhecimento de ciências” em 2006.

Assim como nas demais categorias analisadas aqui, o conhecimento das diferentes áreas de ciências também é impactado pela situação do aluno. Nesse caso, em especial, tanto no “conhecimento de ciências” como no “conhecimento sobre ciências”, estudantes defasados ficaram um e meio desvio padrão abaixo da média da OCDE; os em fase um desvio padrão; e os avançados meio desvio padrão (salvas duas exceções apenas: a diferença entre as médias em sistemas vivos dos alunos em fase e dos adiantados foi de 96 e 49 pontos, respectivamente).

CONCLUSÕES

O conceito de letramento que embasa o Pisa está intimamente relacionado ao que é importante no dia a dia do indivíduo, sendo que seu objetivo mais global é avaliar a capacidade de jovens para usar seus conhecimentos e habilidades para enfrentar os desafios da vida na sociedade contemporânea. Assim, a adoção pelo Pisa do termo “letramento científico”, em vez de “ciência”, ressalta a importância que a avaliação de ciências dá para a aplicação do conhecimento científico no contexto de situações de vida.

Interpretados sob a perspectiva da avaliação da capacidade dos estudantes de usar o conhecimento científico para identificar questões e tomar decisões sobre o mundo natural e social, os resultados deste estudo expõem um cenário de fragilidade e desigualdade no letramento científico dos estudantes brasileiros, que é agravado pela prática recorrente da repetência nas escolas.

A comparação dos resultados em ciências nas edições do Pisa 2006 e 2015 coloca o Brasil em situação de desvantagem diante de quase todos os países participantes e não apenas em relação à OCDE. O Brasil foi o 52o país em competência científica dentre os 57 participantes do Pisa em 2006 e o 63o entre os cerca de 70 países do Programa em 2015.

Os resultados mostram que, na escala de desempenho do Pisa, o Brasil permanece alocado no nível 1, enquanto a média dos países da OCDE se manteve no nível 3. Isso quer dizer que a maioria dos estudantes brasileiros participantes do Pisa tem limitado conhecimento científico, só conseguindo aplicá-lo em algumas poucas situações familiares. Eles são capazes de apresentar explicações científicas óbvias e tirar conclusões de evidências explicitamente apresentadas. Já a maioria dos estudantes dos países membros da OCDE participantes do Pisa em 2006 é capaz de identificar questões científicas claramente definidas em uma série de contextos. Eles podem selecionar fatos e conhecimentos para explicar fenômenos e aplicar modelos simples e estratégias de pesquisa. Podem interpretar e usar conceitos científicos de diferentes disciplinas e aplicá-los diretamente e, ainda, dissertar sobre os fatos e tomar decisões baseadas em conhecimento científico.

Complementarmente, o artigo aborda os resultados dos estudantes brasileiros com defasagem idade-série em ciências, o que permite iluminar aspectos do processo educacional que as medidas brasileiras em larga escala não alcançam.

A comparação dos resultados do Pisa obtidos por estudantes brasileiros deixou claro que a defasagem idade-série continua a constituir uma das dimensões mais importantes das desigualdades educacionais, apesar de ser um dos problemas mais visados pelas políticas públicas federais, estaduais e municipais. Conduzimos nossas análises a partir das médias gerais da OCDE e nas do Brasil em quatro dimensões: geral, incluindo todos os estudantes participantes do teste; estudantes defasados (matriculados no ensino fundamental); estudantes em fase (matriculados no 1º ano do ensino médio); e estudantes adiantados (matriculados nos 2º e 3º anos do ensino médio).

Somente os estudantes brasileiros matriculados nos anos finais do ensino médio e, portanto, com escolaridade maior do que os alunos dos países membros da OCDE conseguiram atingir os patamares iniciais considerados pela organização essenciais para uma participação ativa na sociedade. Os estudantes brasileiros defasados apresentaram um desempenho em ciências inferior ao da amostra geral do Brasil. No entanto, a diferença entre os estudantes brasileiros defasados e os estudantes da OCDE chegou a alcançar significativos 150 pontos em algumas competências, confirmando achados da literatura especializada que mostram que a reprovação não é a melhor solução para os problemas de ensino-aprendizagem no Brasil, além de ser uma medida pedagógica que incide negativamente no desempenho em ciências no Pisa, porque priva esses estudantes da oportunidade de aprender o que é tipicamente avaliado pelo Programa entre jovens de 15 anos de idade que deveriam estar frequentando o último ano do ensino fundamental ou o primeiro do ensino médio.

De maneira geral, os países que apresentam menor média em avaliações internacionais são justamente aqueles que registram os maiores índices de defasagem escolar. Os altos índices de não aprovação escolar saem caro para países como o Brasil, por implicar expressivos custos educacionais e sociais decorrentes do prolongamento do tempo de frequência à escola motivado pela repetência, com o consequente adiamento da conclusão da escolaridade básica e do acesso ao mundo do trabalho.

Este estudo não abarcou outros aspectos relevantes para a compreensão da desigualdade de conhecimento, mas identificou resultados de práticas escolares associadas à desigualdade de aprendizagem em ciências que merecem atenção por parte de professores e gestores de unidades e sistemas escolares. A Base Nacional Comum Curricular, enquanto política nacional focada no que os alunos devem aprender, será capaz de alinhar outras políticas de formação de professores, de produção de materiais didáticos e de avaliações a ponto de contribuir, a um só tempo, para melhorar o ensino e para reduzir as desigualdades de aprendizagem na área de ciências? Essa é uma tarefa urgente em todas as áreas do conhecimento escolar.

O momento de encerramento da elaboração deste artigo coincide com a pandemia provocada pela Covid-19 e materializa, ainda mais significativamente, os problemas e desafios decorrentes do frágil letramento científico dos nossos estudantes, em um contexto em que a política científica brasileira está aquém do necessário, enquanto o avanço da manipulação e da politização da ciência está muito além do tolerável.

REFERÊNCIAS

ALVARADO, L. K. A. et al. Does grade retention affect students’ achievement in Colombia? Vniversitas Económica, Bogotá, v. 18, n. 8, p. 1-37, 26 jul. 2018. [ Links ]

ALVES, F.; ORTIGÃO, M. I. R.; FRANCO, C. Origem social e risco de repetência: interação entre raça-capital econômico. Cadernos de Pesquisa, São Paulo, v. 37, n. 130, p. 161-180, jan./abr. 2007. [ Links ]

BABBIE, E. Métodos de pesquisas de survey. Belo Horizonte: UFMG, 1999. [ Links ]

BRANDÃO, Z.; BAETA, A. M. B.; ROCHA, A. D. Evasão e repetência no Brasil: a escola em questão. Rio de Janeiro: Achiamé, 1983. [ Links ]

BRASIL. Ministério da Educação. Orientações curriculares para o ensino médio: ciências da natureza, matemática e suas tecnologias. Brasília, DF: Ministério da Educação, Secretaria de Educação Básica, 2006. 135 p. (Orientações curriculares para o ensino médio, volume 2). [ Links ]

BRASIL. Ministério da Educação. Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira. Resultados nacionais - Pisa 2006: Programa Internacional de Avaliação de Estudantes (Pisa). Brasília: Inep, 2008. [ Links ]

BRASIL. Ministério da Educação. Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira. Brasil no PISA 2015: análises e reflexões sobre o desempenho dos estudantes brasileiros. Brasília: Inep, 2016. [ Links ]

BYBEE, R. W. Achieving scientific literacy: from purposes to practices. Portsmouth, NH: Heinemann, 1997a. [ Links ]

BYBEE, R. W. Toward an understanding of scientific literacy. In: GRABER, W.; BOLTE, C. Scientific literacy. Kiel, Germany: Institute for Science Education, 1997b. p. 37-68. [ Links ]

CORREA, E. V.; BONAMINO, A.; SOARES, T. M. Evidências do efeito da repetência nos primeiros anos escolares. Estudos em Avaliação Educacional, São Paulo, v. 25, n. 59, p. 242-269, set./dez. 2014. [ Links ]

COSTA-RIBEIRO, S. A Pedagogia da repetência. Estudos Avançados, São Paulo, v. 5, n. 12, p. 7-21, maio/ago. 1991. [ Links ]

CRAHAY, M. Poderá a escola ser justa e eficaz? Da igualdade das oportunidades à igualdade dos conhecimentos. Tradução de Vasco Farinha. Lisboa: Instituto Piaget, 2002. [ Links ]

DALTON, B. Grade level and science achievement: US performance in cross-national perspective. Comparative Education Review, Chicago, v. 56, n. 1, p. 125-154, Feb. 2012. [ Links ]

DIRIS, R. Don’t hold back? The effect of grade retention on student achievement. Education Finance and Policy, New York, v. 12, n. 3, p. 312-341, summer 2017. [ Links ]

FENSHAM, P. J. Time to change drivers for scientific literacy. Canadian Journal of Science, Mathematics, and Technology Education, Toronto, v. 2, n. 1, p. 9-24, Jan. 2000. [ Links ]

FERRÃO, M. E. et al. The relevance of the school socioeconomic composition and school proportion of repeaters on grade repetition in Brazil: a multilevel logistic model of PISA 2012. Large-scale Assessments in Education, v. 5, n. 1, p. 7, Dec. 2017. [ Links ]

FRANCO, C. et al. Eficácia escolar en Brasil: investigando prácticas y políticas escolares moderadoras de desigualdades educacionales. In: CUETO, S. Educación y brechas de equidad em América Latina. Santiago: Preal, 2007. t. 1, p. 223-249. [ Links ]

FREITAS, M. A. T. A escolaridade média no ensino primário brasileiro. Revista Brasileira de Estatística, Rio de Janeiro, v. 8, n. 30-31, p. 395-474, 1947. [ Links ]

GARCÍA-PÉREZ, J. I. et al. Does grade retention affect students’ achievement? Some evidence from Spain. Applied Economics, London, v. 46, n. 12, p. 1373-1392, Feb. 2014. [ Links ]

GOOS, M. et al. How can cross-country differences in the practice of grade retention be explained? A closer look at national educational policy factors. Comparative Education Review, Chicago, v. 57, n. 1, p. 54-84, Feb. 2012. [ Links ]

GRABER, W.; BOLTE, C. Scientific literacy. Kiel, Germany: Institute for Science Education, 1997. [ Links ]

IKEDA, M.; GARCÍA, E. Grade repetition: a comparative study of academic and non-academic consequences. OECD Journal: Economic Studies, Paris, v. 2013/1, p. 269-315, Jan./Dec. 2014. [ Links ]

KLEIN, R. Uma re-análise dos resultados do Pisa: problemas de comparabilidade. Ensaio: Avaliação e Políticas Públicas em Educação, Rio de Janeiro, v. 19, n. 73, p. 717-768, out./dez. 2011. [ Links ]

LAW, N. Scientific literacy: charting the terrains of a multifaceted enterprise. Canadian Journal of Science, Mathematics, and Technology Education, Toronto, v. 2, n. 2, p. 151-176, Jan. 2002. [ Links ]

MATOS, D. A. S.; FERRÃO, M. E. Repetência e indisciplina: evidências de Brasil e Portugal no Pisa 2012. Cadernos de Pesquisa, São Paulo, v. 46, n. 161, p. 614-636, jul./set. 2016. [ Links ]

MAYER, V. J. (ed.). Global science literacy. Dordrecht: Kluwer Academic Publishers, 2002. [ Links ]

MAYER, V. J.; KUMANO, Y. The philosophy of science and global science literacy. In: MAYER, V. J. (ed.). Global science literacy. Dordrecht: Kluwer Academic Publishers, 2002. [ Links ]

MURI, A. F. A formação científica no Brasil e o Pisa: um estudo a partir do PISA 2006. Letônia: Novas Edicões Acadêmicas, 2015. [ Links ]

ORGANIZATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OECD). Measuring student knowledge and skills: a new framework for assessment. Paris: OECD Publishing, 1999. [ Links ]

ORGANIZATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OECD). The PISA 2003 assessment framework: mathematics, reading, science and problem solving knowledge and skills. Paris: OECD Publishing, 2003. [ Links ]

ORGANIZATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OECD). The PISA 2006 assessment framework for science, reading and mathematics. Paris: OECD Publishing, 2006. [ Links ]

ORGANIZATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OECD). Competências em ciências para o mundo de amanhã. Volume 1: Análise. São Paulo: Moderna, 2008. [ Links ]

ORGANIZATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OECD). Strong performers and successful reformers in education: lessons from PISA for the United States. Paris: OECD Publishing, 2010. [ Links ]

ORGANIZATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OECD). PISA 2009 technical report. Paris: OECD Publishing, 2012. [ Links ]

ORGANIZATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OECD). PISA 2015 draft science framework. Paris: OECD Publishing, 2013a. [ Links ]

ORGANIZATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OECD). PISA 2012 results: what makes schools successful - Resources, policies and practices. Paris: OECD Publishing, 2013b. v. 4. [ Links ]

ORGANIZATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OECD). PISA 2012 results: excellence through equity - Giving every student the chance to succeed. Paris: OECD Publishing, 2013c. v. 2. [ Links ]

ORGANIZATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OECD). Education policy outlook 2015: making reforms happen. Paris: OECD Publishing, 2015. [ Links ]

ORGANIZATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OECD). PISA 2015 assessment and analytical framework. Paris: OECD Publishing, 2016. [ Links ]

PEREIRA, M. C.; REIS, H. Grade retention during basic education in Portugal: determinants and impact on student achievement. Economic Bulletin and Financial Stability Report Articles, Lisbon, v. 1, n. 1, p. 61-83, Jun. 2014. [ Links ]

ROBERTS, D. A. Scientific literacy. Towards a balance for setting goals for school science programs. Ottawa: Minister of Supply and Services, 1983. [ Links ]

SASSAKI, A. H. et al. Por que o Brasil vai mal no PISA? Uma análise dos determinantes do desempenho no exame. São Paulo: Insper, 2018. (Policy Paper, 31). [ Links ]

UNITED NATIONS EDUCATIONAL, SCIENTIFIC AND CULTURAL ORGANIZATION (UNESCO). Project 2000+: International Forum on Scientific and Technological Literacy for All. Final Report. Paris, 1993. [ Links ]

1O presente artigo é adaptação de uma parte integrante da tese de doutorado da primeira autora sob a orientação da segunda e foi realizado com apoio da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - Brasil (Capes) - Código de Financiamento 001.

2Do original: “Scientific literacy is the capacity to use scientific knowledge, to identify questions and to draw evidence-based conclusions in order to understand and help make decisions about the natural world and the changes made to it through human activity”.

3Proficiência em ciências (pv1scie); série (st01q01 e st001d01t); proficiência em “explicar fenômenos cientificamente” (pv1eps e pv1scep); proficiência em “identificar questões científicas” (pv1isi); proficiência em “usar evidência científica” (pv1use); proficiência em “avaliar e planejar investigações científicas” (pv1sced); proficiência em “interpretar dados e evidências cientificamente” (pv1scid); proficiência em “conhecimento de conteúdo” (pv1skco); proficiência em “conhecimento procedimental e epistemológico” (pv1skpe); proficiência em “sistemas físicos” (pv1ssph); proficiência em “sistemas vivos” (pv1ssli); proficiência em “Terra e sistemas espaciais” (pv1sses); fase (st01q01.rec e st001d01t.rec); e níveis (pv1scie.rec).

4http://www.oecd.org/PISA/data/. Acesso em: ago. 2020.

5A distorção idade-série é a proporção de alunos com mais de dois anos de atraso escolar. Atualmente, no Brasil, a criança deve ingressar no 1º ano do ensino fundamental aos seis anos de idade, permanecendo até o 9º ano, com a expectativa de que conclua esse nível de ensino até os 14 anos de idade. O cálculo da distorção idade-série é realizado a partir de dados coletados no Censo Escolar. Todas as informações de matrículas dos alunos são capturadas, inclusive a idade deles.

6Dados do Censo Escolar mostram que 29% dos jovens de 15 anos estavam fora da escola e cerca de 50% encontravam-se defasados na época (BRASIL, 2006).

7Portaria MEC n. 316, de 4 de abril de 2007.

Recebido: 30 de Janeiro de 2020; Aceito: 26 de Maio de 2020

TRANSLATED BY:

FERNANDO EFFORI DE MELLOIII

III

Freelance translator, São Paulo-SP, Brazil; feffori@gmail.com

Creative Commons License Este é um artigo publicado em acesso aberto sob uma licença Creative Commons