O BRASIL AINDA É O PAIS DO FUTEBOL??


O Brasil é o país do futebol, o que muitos diziam a um longo tempo, onde as crianças, meninos e meninas nascem chutando uma bola em seus pés, onde o assunto mais falados em debates é sobre os jogos e partidas de futebol, e o que mais é visado é nos recreios, educação física e nos momentos de lazer os momentos em que se há o proveito do jogo que é o futebol.

Apesar disso, o futebol evoluiu é se desenvolveu, hoje em dia há muitos países que investem diretamente e de forma constante no futebol, e isso as vezes deixa o Brasil com um pé atrás, ainda sim é o país com mais títulos de Copas do Mundo, porém já não a vence uma há mais de 20 anos, e percebe-se algumas dificuldades no futebol, porém na América do Sul ainda sim prevalece nas competições sempre com times brasileiros presentes, mas a diferença com o futebol europeu é imensa, se percebe isso no Mundial de Clubes, onde as equipes geralmente brasileiras enfrentam o campeão da Champions League indo em busca do Mundial, e a diferença é enorme, isso pelo fator de renda concentrada no futebol europeu e o alto investimento constante, todos os melhores jovens do Brasil ou de países da América do Sul, entre outros a Europa visa e na maioria das vezes os times grandes usufruem e acabam comprando esses jogadores.

Por estes fatores, a Europa e os times possuentes lá constituem melhor futebol e conseguem desembolsar isso nas competições, mas o Brasil sempre possui equilibro em seus campeonatos nacionais, por isso ainda dá para dizer que o Brasil é o país do futebol pelo trabalho bem feito com jovens e na base que se tornar titulares absolutos e melhores da posição lá fora, porém hoje a Europa chegou com investimento forte para acabar com esses fatores. 

Autor: Matheus Fernando de Morais 

Comentários

Postagens mais visitadas deste blog

BRYAN ROBSON - AUTOR DO GOL MAIS RÁPIDO EM COPA DO MUNDO!

FORTALEZA VENCE GRANDEMENTE O BOCA JUNIORS NA SULA!

VELO CLUBE NO PAULISTÃO APÓS 46 ANOS!