ࡱ> -/,bjbjUU >??|| 07999999fJ99N77lw(6#d0099| :RESUMO Ferramentas para explorao, anlise e descoberta de novos conhecimentos so a chave para permitir que uma grande quantidade de dados faa mais sentido para os cidados. Porm, os dados no so compreendidos de maneira eficiente quando so utilizadas apenas representaes visuais comuns, como tabelas e listas. Grandes conjuntos de dados so melhores assimilados quando contamos com visualizaes mais elaboradas, que permitam encontrar padres e reconhecer correlaes entre variveis. Construir e utilizar visualizaes de dados que sejam claras, precisas, eficientes e coerentes pode ser uma soluo muito poderosa para identificar tendncias e destacar outliers, por exemplo. Porm, desorientao e m interpretao diante dos leitores um problema recorrente quando utilizamos visualizao. Cada vez mais, percebe-se a necessidade de prover ao cidado visualizaes de dados melhor interpretveis, que passem informaes mais claramente ao usurio. Neste trabalho, so apresentadas propostas de duas avaliaes a avaliao da qualidade da apresentao de visualizaes e a avaliao da interpretabilidade de visualizaes. Para facilitar o entendimento e uso desses instrumentos, prope-se tambm um processo que define os passos que devem ser executados para a realizao de cada uma das duas atividades de avaliao. A finalidade deste processo permitir que seus utilizadores criem melhores visualizaes, tornando os dados, nelas representados, compreensveis, reconhecveis, e interpretveis aos usurios, de maneira eficiente e acurada. Experimentos com usurios de diversos perfis foram realizados com o intuito de validar as avaliaes propostas. Em posse dos resultados dos experimentos, concluiu-se que possvel utilizar as duas avaliaes para mensurar tanto a qualidade da apresentao de visualizaes, quanto a interpretabilidade das mesmas. Logo, melhorar a gerao de visualizao de dados como um todo, utilizando as avaliaes propostas neste trabalho uma aspirao factvel. Palavras-chave: Visualizao de dados; Transparncia pblica; Interpretabilidade. ABSTRACT Tools for exploration, analysis and discovery of new knowledges are the key to enabling a large amount of data to make more sense to citizens. However, data is not understood efficiently when only common visual representations, such as tables and lists, are used. Large datasets are best assimilated when we have more elaborate visualizations that allow us to find patterns and recognize correlations between variables. Building and using data visualizations that are clear, accurate, efficient and consistent can be a very powerful solution for identifying trends and highlighting outliers, for example. However, disorientation and misinterpretation of readers is a recurring problem when we use visualization. Increasingly, we realize the need to provide citizens with better interpretable data visualizations, which show information more clearly to the user. In this paper, we propose two novel evaluations of visualizations the presentation quality assessment and the interpretability assessment. To facilitate the understanding and use of these instruments, we proposed also a process that defines the steps that must be taken to carry out each of the two evaluation activities. The purpose of this process is to enable its users to create better views, making the data understandable, recognizable, and interpretable to readers in an effective and accurate manner. We carried out experiments with users from diverse backgrounds to validate the proposed approaches. Based on the results of the experiments, we could conclude that it is possible to use the two evaluation methods to measure both the presentation quality the interpretability of visualizations. Therefore, using the evaluation methods proposed in this work to improve the creation of data visualizations as a whole, is a feasible aspiration. Keywords: Data visualization; Public transparency; Interpretability. 7WDEFOf߽hMOJQJ^JmH sH  hhMOJQJ^JmH sH .hhM5CJ OJQJ\^JaJ mH sH hMOJQJ^JhhMOJQJ^J&hhM5CJ OJQJ\^JaJ 456789:;<=>?@ABCDEFOPgh$a$gd$a$gdh$a$gd<P1h:pM. A!"#$% Dp^ 666666666vvvvvvvvv666666>6666666666666666666666666666666666666666666666666hH6666666666666666666666666666666666666666666666666666666666666666662 0@P`p2( 0@P`p 0@P`p 0@P`p 0@P`p 0@P`p 0@P`p8XV~_HmHnHsHtH@`@ NormalCJ_HaJmHsHtHDA D 0Default Paragraph FontRiR 0 Table Normal4 l4a (k ( 0No List PK![Content_Types].xmlj0Eжr(΢Iw},-j4 wP-t#bΙ{UTU^hd}㨫)*1P' ^W0)T9<l#$yi};~@(Hu* Dנz/0ǰ $ X3aZ,D0j~3߶b~i>3\`?/[G\!-Rk.sԻ..a濭?PK!֧6 _rels/.relsj0 }Q%v/C/}(h"O = C?hv=Ʌ%[xp{۵_Pѣ<1H0ORBdJE4b$q_6LR7`0̞O,En7Lib/SeеPK!kytheme/theme/themeManager.xml M @}w7c(EbˮCAǠҟ7՛K Y, e.|,H,lxɴIsQ}#Ր ֵ+!,^$j=GW)E+& 8PK!Ptheme/theme/theme1.xmlYOo6w toc'vuر-MniP@I}úama[إ4:lЯGRX^6؊>$ !)O^rC$y@/yH*񄴽)޵߻UDb`}"qۋJחX^)I`nEp)liV[]1M<OP6r=zgbIguSebORD۫qu gZo~ٺlAplxpT0+[}`jzAV2Fi@qv֬5\|ʜ̭NleXdsjcs7f W+Ն7`g ȘJj|h(KD- dXiJ؇(x$( :;˹! I_TS 1?E??ZBΪmU/?~xY'y5g&΋/ɋ>GMGeD3Vq%'#q$8K)fw9:ĵ x}rxwr:\TZaG*y8IjbRc|XŻǿI u3KGnD1NIBs RuK>V.EL+M2#'fi ~V vl{u8zH *:(W☕ ~JTe\O*tHGHY}KNP*ݾ˦TѼ9/#A7qZ$*c?qUnwN%Oi4 =3ڗP 1Pm \\9Mؓ2aD];Yt\[x]}Wr|]g- eW )6-rCSj id DЇAΜIqbJ#x꺃 6k#ASh&ʌt(Q%p%m&]caSl=X\P1Mh9MVdDAaVB[݈fJíP|8 քAV^f Hn- "d>znNJ ة>b&2vKyϼD:,AGm\nziÙ.uχYC6OMf3or$5NHT[XF64T,ќM0E)`#5XY`פ;%1U٥m;R>QD DcpU'&LE/pm%]8firS4d 7y\`JnίI R3U~7+׸#m qBiDi*L69mY&iHE=(K&N!V.KeLDĕ{D vEꦚdeNƟe(MN9ߜR6&3(a/DUz<{ˊYȳV)9Z[4^n5!J?Q3eBoCM m<.vpIYfZY_p[=al-Y}Nc͙ŋ4vfavl'SA8|*u{-ߟ0%M07%<ҍPK! ѐ'theme/theme/_rels/themeManager.xml.relsM 0wooӺ&݈Э5 6?$Q ,.aic21h:qm@RN;d`o7gK(M&$R(.1r'JЊT8V"AȻHu}|$b{P8g/]QAsم(#L[PK-![Content_Types].xmlPK-!֧6 +_rels/.relsPK-!kytheme/theme/themeManager.xmlPK-!Ptheme/theme/theme1.xmlPK-! ѐ' theme/theme/_rels/themeManager.xml.relsPK]  h MgorL>@@@UnknownG*Ax Times New Roman5Symbol3" Arial7.@CalibriACambria Math"Y'Y's: !0$P!xxRESUMOHelioHelioOh+'0x  4 @ LX`hpRESUMOHelioNormal_WordconvHelio2Microsoft Office Outlook@Ik@ '6@Qb(6s: ՜.+,0 hp|   RESUMO Title  !"#%&'()*+.Root Entry Fuw(601TableWordDocument>SummaryInformation(DocumentSummaryInformation8$CompObjy  F'Microsoft Office Word 97-2003 Document MSWordDocWord.Document.89q  F#Documento do Microsoft Office Word MSWordDocWord.Document.89q