-
Notifications
You must be signed in to change notification settings - Fork 17
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Tradução: arrow.qmd #60
Tradução: arrow.qmd #60
Conversation
Co-authored-by: Arthur C. Silva <[email protected]>
Co-authored-by: Arthur C. Silva <[email protected]>
Co-authored-by: Arthur C. Silva <[email protected]>
Co-authored-by: Arthur C. Silva <[email protected]>
Co-authored-by: Arthur C. Silva <[email protected]>
Co-authored-by: Arthur C. Silva <[email protected]>
Co-authored-by: Arthur C. Silva <[email protected]>
Co-authored-by: Arthur C. Silva <[email protected]>
Co-authored-by: Arthur C. Silva <[email protected]>
Co-authored-by: Arthur C. Silva <[email protected]>
Co-authored-by: Arthur C. Silva <[email protected]>
Co-authored-by: Arthur C. Silva <[email protected]>
Co-authored-by: Arthur C. Silva <[email protected]>
Co-authored-by: Arthur C. Silva <[email protected]>
Co-authored-by: Arthur C. Silva <[email protected]>
Co-authored-by: Arthur C. Silva <[email protected]>
@decarvaa , muito obrigado pela ajuda na revisão! Excelente! |
Obrigada @scopinho por documentar isso!! @rivaquiroga In the book, there are big datasets stored in AWS, and the code points to how the reader can download the data directly from AWS. I guess, in this case, we can: What is your opinion? Did you face something like that in the 1ed? @scopinho What do you think? |
Oi @scopinho e @decarvaa ! Sobre a minha revisão: tem alguns typos mas a maioria são coisas que eu anotei para tentar deixar a leitura mais fluida. Veja o que faz sentido para você! :D |
Co-authored-by: Beatriz Milz <[email protected]>
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Também achei melhor usar "inspecionar" neste caso do scan.
Valeu @beatrizmilz , já aceitei a revisão. Sobre o arrow: Depois que comecei a usar, uso em quase todos os casos onde tem dados maiores que uns 5GB até uns 400GB. Dicas: 1-) Leia sobre os tipos de dados, pois as vezes precisa fazer algumas conversões, etc 2-) Como ele não tem todas as funções usar com o duckdb salva a pele 3-) Funções de janela (window) tipo lead/lag não rola com ele, entao teria que converter pra tibbble ou criar uma função diferente vetorizada, etc. Good luck! |
@beatrizmilz , my two cents: I like option 2: Although for the r4ds translation it might not be a big deal leave it as is (english), I see more and more examples where the data comes from the web like in the webscraping chapter and other articles we may want to translate in the future. Hence, if we could have a bucket somewhere where the link wont go away, it cold be a good asset for this and other translation projects. |
I'll work on that, and will be back with new info! |
@beatrizmilz, the use AWS is new to the second edition. Did they store the datasets there because they are too big? |
Hi @rivaquiroga , apologizes for jumping in here, but Beatriz mentioned she is a bit busy, so I hope you don't mind if I share some info I have. Anyway, I believe your guess is correct. The idea with arrow is to use a dataset that is big enough to showcase the technology (bigger than memory) and that csv has 9GB. |
Ideia: podemos seguir com esse capítulo com a versão em inglês, e depois que estiver disponível os dados traduzidos, podemos atualizar. |
Concordo, pois ao menos ja começamos a disponibilizar para os leitores. |
Criei outra issue pra essa tarefa específica (pra não esquecer haha). E vou aceitar esse PR então! Posso aceitar? Você ainda quer editar algo? |
Pode aceitar... no momento é tudo que tenho. Se decidirmos mudar, colocamos outro PR depois. thx |
Tradução arrow.qmd.
Pontos importantes:
1-) O capítulo usa o dataset de items retirados das bibliotecas públicas de Seattle que está disponível online em (https://data.seattle.gov/Community/Checkouts-by-Title/tmmm-ytt6).
Precisamos definir se este será incluído no pacote dados e traduzido ou alguma outra estratégia. O problema é que o CSV dele tem 9 GB e está armazenado em um bucket S3 da AWS aqui: "https://r4ds.s3.us-west-2.amazonaws.com/seattle-library-checkouts.csv". Por ora, mantive o codigo sem traducao dos campos, tentando explicar alguns termos ao longo do texto como CheckoutYear (ano da retirada).
2-) Assim como no databases.qmd, usei "roda por trás do dplyr" (dplyr backend) e depois usei backend ao longo do texto.
3-) Para tree-like usei "semelhantes a árvores" (mas achei meio esquisito) , então deixei em inglês na frente tb.
Sugestões são bem-vindas!