“UM MERCADO MUITO COMPLEXO”

A frase é de Michael Cader, o organizador da Digital Book World Conference que recém terminou. Cader, que é um dos mais renomados especialistas em análise de dados do mercado editorial, marcou vários pontos nos últimos dias.

O primeiro é o reconhecimento da complexidade do mercado e, principalmente, das sérias inconsistências dos dados disponíveis para análise de seu desempenho (em geral e de cada livro, ou editora, em particular). E isso, vindo de alguém que é dos mais dedicados defensores da importância dos metadados, não é pouca coisa.

Cader estava falando dos dados sobre o mercado dos Estados Unidos. Se olhasse os daqui, teria um faniquito.

A razão, explicou ele, é que o mercado é tão complicado “que é quase impossível ter uma apreciação clara dele”. E as razões enumeradas se resumem ao fato de que “as três fontes primárias de dados sobre vendas não pintam nada que se assemelhe a uma visão geral”.

Quais são essas três fontes? A Association of American Publishers (AAP)  monitora vendas de livros impressos e digitais a partir de números fornecidos pelos editores. Só que, como a AAP registra basicamente as vendas de editoras grandes e médias, é impossível saber “o desenho total da paisagem” que esses números representam. (Existe outro fator complicador, tratado mais adiante).

A outra fonte é o Nielsen Bookscan, que monitora as vendas de livros impressos. Mas essa, como sabemos, lá e aqui, só monitora a venda de grandes clientes: redes de livrarias (e nem todas), a parte do segmento de “linha branca” que vende também livros (Americanas, Ponto Frio e congêneres). Lá, como aqui, o Bookscan é preciso nesse registro no que diz respeito a unidades vendidas e o preço de venda de cada unidade. Mas não tem condições de informar sobre o faturamento total da indústria editorial. Acompanha com precisão – como aliás temos visto nos relatórios divulgados aqui pelo SNEL – aquilo que é vendido nos pontos de venda que eles acompanham. Quem não está ligado ao sistema da Nielsen está fora. E isso inclui não apenas todas as livrarias independentes, como também a segmentação de vendas que é feita através das distribuidoras. Das vendas ao poder público, então, nem falar.

Finalmente, a PubTrack, que cobre apenas ebooks. Originalmente fundada pelo Bowker, hoje é controlada também pela Nielsen, e divulga seus dados a cada três meses.

Entretanto, o problema é ainda maior. Os grandes varejistas eletrônicos não fornecem nenhum dado agregado. Amazon, Apple, Google e Kobo informam as editoras sobre suas vendas, é claro. E essas informam o PubTrack, na periodicidade acertada.

Mas a discrepância continua: qual a parcela das vendas das grandes editoras no conjunto do mercado editorial dos EUA?

O grupo Author Earnings  que congrega especialmente os autores independentes, ou seja, os auto-publicados, já há muito contesta furiosamente os dados apresentados por essas três fontes. Sustenta que o segmento da auto-publicação é muito maior do que as editoras estabelecidas pensam, e que esses dados estão simplesmente errados.

banner-e-books1

Desde há dois anos, a pinimba entre a Author Earnings e o pessoal do Digital Book World foi grande.

Daí que a grande surpresa da DBW Conference deste ano foi precisamente convidar o autor que vem trabalhando para desmontar os dados tradicionais para fazer uma das conferências e depois um colóquio. E foi convidado pelo próprio Cader. Ele usa o pseudônimo de Data Guy (DG) e revelou que sua experiência de análise de dados provém das vendas de vídeo-games.

Cader reservou um dos horários nobres do último dia da conferência para o DG, que se revelou simpático e acessível. Informou que é autor de dois livros (auto-publicados), mas não disse o nome. A qualquer momento alguém que o conheça vai informar, com certeza.

Mas isso é o de menos.

A presença de DG transformou o previsível confronto em uma substancial troca de informações que pode ser mutuamente proveitosa (indústria estabelecida e auto-publicação).

DG explicou como calcula as vendas, principalmente da Amazon. Ele faz uma triangulação entre os metadados fornecidos pela própria Amazon – por exemplo, posição no ranking de cada livro em vendas pelo Kindle – e a quantidade total de livros vendidos diariamente pela Amazon. Diz que assim produz um “instantâneo” das vendas dos livros dos autores independentes.

A Publishing Perspectives produziu um post sobre a presença de DG onde tenta explicar a metodologia usada por ele nos cálculos.

Cader revelou que vem mantendo contato com DG já há algum tempo, e que existe de fato a possibilidade de uma “fusão” de dados que enriqueceria as informações sobre o mercado de ebooks. Há muito ceticismo a respeito disso, mas, segundo a Publishing Perspectives, o clima de confronto virou clima de cooperação e daí podem surgir coisas interessantes e úteis para todos os segmentos da indústria editorial.

Há muita matemática envolvida na explicação e nos cálculos, área em que meus conhecimentos são definitivamente deficientes.

Mas o espírito da coisa é que se abre o caminho para conseguir um retrato mais realista do conjunto da indústria editorial por lá, mesmo sem a colaboração dos “Quatro Cavaleiros” (do apocalipse do mercado editorial?).

E por aqui?

Bem, se por lá existe esse tipo de reclamações, aqui a situação é muito, mas muito pior.

Começa que a maioria dos editores simplesmente não consegue perceber que, mesmo com todas as deficiências existentes, é possível extrair muitas informações importantes para o desenvolvimento do mercado de cada editora.

Aqui temos basicamente duas fontes de informação. A primeira, a pesquisa de “Produção e Vendas do Mercado Editorial”, que teoricamente seria mais ou menos equivalente à informação da AAP. Afirmação só possível com uma enorme quantidade de boa vontade. Na minha opinião, a pesquisa FIPE/CBL-SNEL se degradou bastante nos últimos anos e está longe, mas muito longe, de ter a qualidade do material produzido pelo BISG. Mas é o que temos. E não deixa de ser útil, se bem usada. Afinal, aqui o fenômeno da auto-publicação, ainda que crescente, está longe de chegar à proporção que assumiu nos EUA.

A segunda fonte de dados é o BookScan que vem sendo implantado aqui pela Nielsen, e que o SNEL contratou para dar um resumo mensal de seus dados, que vem sendo publicados sistematicamente pelo PublishNews. Os dados do BookScan tem os mesmos defeitos (e virtudes) detectados por lá, com talvez uma agravante: a quantidade de empresas informantes de dados é provavelmente muito menor. O universo da BookScan não é revelado em termos quantitativos nos relatórios do SNEL. No Brasil a Nielsen Bookscan têm concorrência com a empresa alemã GfK, que desenvolve um sistema que, na prática, é igual ao deles. A GfK, entretanto, não fez convênio com nenhuma entidade para divulgação de seus dados.

Não temos algo como o PubTrack.

A qualidade dos dados, portanto, é bem pior que nos EUA.

Some-se a isso, como já mencionei em vários posts, a incompreensão ainda dominante na maioria das editoras, de que a análise de dados e o acompanhamento do desempenho através do rastreio de metadados é despesa, e não investimento.

Ou seja, analisar o mercado editorial brasileiro não é fácil. Aliás, é bem mais difícil que em outros países.

A ausência de dados confiáveis, entretanto, não impediria que, com o que se dispõe, as editoras pudessem melhorar, e muito, vários aspectos do seu funcionamento.

Um bom exemplo foi divulgado pelo Carlo Carrenho na edição do dia 8 de março passado da newsletter. A matéria sobre a “aula imperdível” de Peter McCarthy é um excelente exemplo de como a criatividade e a percepção correta do uso de dados pode ajudar todo o mercado editorial a ter um melhor desempenho. Vale a pena ver o power point.

 

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

This site uses Akismet to reduce spam. Learn how your comment data is processed.