Communityskapande i Dataportalen - fler funktioner eller inte?
-
@magnus-sälgö Snyggt! Bra sammanställning av goda exempel.
Du skriver " ..bara att installera en wiki skulle kunna göra att vi har platser att jobba ihop på även fast det är ett enkelt verktyg fungerar det fantastiskt bra på WIkidata/ Wikipedia."
Det finns en vilja hos från civilsamhället att samarbeta och hjälpa myndigheter och kommuner i deras jobb. Goda intentioner som offentlig sektor ibland har svårt att möta. Och det beror ju på ovana. Många individer (privata som offentliga-aktörer) är ovana med publika diskussioner. Det man eftersträvar är ju att arbeta öppet och smart (för att effektivisera och vara med transparent), men för många finns en oro att den publika dialogen blir för omfattande och tidskrävande och ytterligare en aktivitet. (Och ibland är det så.)
Att något är svårt betyder inte att vi inte ska försöka, och här har vi helt klart en hel del att lära från Wikidatavärlden.
-
@Maria_Dalhage egentligen är det bara att skapa en yta på Wikidata.... och "vara med" samma med GITHUB ... numera är även gratis gott
Snart kommer en Wikibase.cloud som är en gratis "tom" Wikidata hostad i molnet ex. min betatest
blir för omfattande och tidskrävande
Att leverera 5-star data tycker jag skall jämställas med att börja med Maskininlärning det tar tid och ny kompetens/ekosystem behövs... och vi kommer att göra fel vilket Johan Magnusson poängterar är en del av processen.
blir ... tidskrävande
Vore intressant om projekt som NSÖD var mer öppna med var resurserna lagts på (att själva ha öppna data) och sedan kunna börja jämföra hur man själv jobbar och om det är det mest effektiva...
Hade hoppats att min en vecka med badstränder/utegym skulle skapat intresse av fördelar med ett verktyg som Wikidata...
-
@Stefan-Wallin Jag utgår ifrån att en stor del av ditt inlägg inte var menat till mig utan en annan Maria?
Kan bara påpeka att uppdatera vår öppna data behöver inte ta lång tid, som jag sa tidigare är anledningen till att det gör det ibland att det kommer längre ner i prioriteringen beroende på vilken data/verksamhet det handlar om (samt vilken arbetsbelastning/resurstillgång de har) -
@Maria-Söderlind delvis även dig, framförallt din kommentar om:
Att kommunerna ska lägga resurser på att koppla ihop sitt öppna data med WD - känns det verkligen korrekt? Är det verkligen detta de kommunala pengarna ska läggas på?
Vad jag ville kommunicera, men kanske missade att tydliggöra. Är att det inte alltid måste vara Wikidata som organisation offentlig sektor(ni?) ska samarbeta med och lägga tid på, utan att ni kan skapa er egna Wikidata och webbbaserade Git-repon när ni publicerar data och därmed enkelt och strukturerat kunna ta emot feedback, rättningar OCH HJÄLP från engagerade medborgare. Därmed skulle ni slippa göra allt jobb själva och istället utnyttja kraften i Crowdsourcing. Superbra framförallt när det gäller alla sorters kartdata eller kart-knuten data som representeras av fysiska ting i vår omvärld(bad, gym, skolor, skolmåltider med mera kan alla ses som kartdata). Men just ihopkopplingen som wikidata är så bra på är något offentlig sektor behöver bli mycket bättre på. Här menar Magnus och jag att en genväg ni kan ta är att använda en wiki som bassystem istället för att uppfinna egna som kostar dyrbar utvecklingstid och långa inköpsprocesser.
Så istället för att lägga tid på att koppla ihop egen data med Wikidata så kan ni ge medborgarna verktyg för:
- att skapa SammaSom-kopplingar som ni kan godkänna med en knapptryckning
- att använda riktiga persistenta unika identifierare som kan kopplas mot externt
- att använda existerande öppen källkods-mjukvaror för helpdesk-ärenden med egna persistenta identifierare. Dessa ärenden bör kunna vara helt publika och transparenta. Inspireras gärna av Github/Gitlab eller använd en egenhostad Gitlab för ändamålet.
Här @Maria_Dalhage kan DIGG ta ledartröjan och tillhandahålla mjukvaran där resterande offentlig sektor kan bjudas in och agera. Skapa primära offentliga kontaktvägar och rekommenderade metoder.
-
Andra som sliter med hur man skall jobba ihop och skapa användbar metadata är kulturarvet se Facebook dom har en workshop om detta 17 oktober....
Skillnaden är att utan bra metadata stannar forskningen... dvs. så borde det vara för kommuner att andra kommuner använder det metadata som producerar av deras "tvilling kommuner etc..." men där är vi inte idag... varför...
Gissar att dom försökt i 400 år så det verkar ta tid....
eller så kan man lära av deras misstag... jag tycker EU projektet Europeana är exempel på 10 års misslyckande det jag ser
- SILOS
- finns sällan på GITHUB eller ger dig ett helpdesk nummer
- verkar ha svårt att anställa nya kompetenser... Spotify har 70 000 ansökningar per månad / Riksarkivet får knappt några sökande på utlösta ITjobb har jag hört...
- brist på standarder hur data beskrivs exempelvis yrken, alla uppfinner sin egen
- Riksarkivet SBL har enormt bra domänkunskap men publicerar inte data som data dvs. metadata... SKBL som också skrev biografier var digitala, hade API och producerade 50 kvinnobiografier per månad medans SBL skapa 5 per år.... se Notebook
- saknas publika backlogs / roadmaps dvs. det är svårt att se vart arkiven etc. är på väg
- det @Stefan-Wallin pratar om att ha korta 3 veckors sprintar har jag inte sett utan man får något efter 4 år.... och kan inte enkelt kommunicera med dom...
- SILOS
-
@Maria-Söderlind min kanske naiva tro är att man bör tänka API first dvs. när du bygger en web så börja med att skapa data som data inte ens DIGG som starta för 3 år sedan och skall vara experter verkar ha tänkt så utan det blev mer webdesign och snygga bilder --> att deras författningar etc. inte finns som Öppna data utan bara på en websida.... (1999 fanns en ambition att skapa öppna data i projektet lagrummet av alla författningssamlingar men man la ned projektet kring 2006 och det blev en websida med länkar känns som behovet av rätt kompetens underskattas hela tiden... )
det kommer längre ner i prioriteringen
med APIFirst så kommer tom Öppna data först sedan websida.... Tim Berners Lee som skapade www säger detta i denna video "raw data now" .... han pratar även om Hans Roslings begrepp database hugging
Tyvärr ser jag att några av dom få Öppna data lösningar jag hittat hos kommunerna bygger på att datat som visas på web:en inte direkt skickas över till Öppna data --> felstavningar, ändringar syns inte samtidigt vilket jag tror att öppna data gärna "glöms bort"
Kan Facebook lura apoteken att samla in data till dom vilka läkemedel vi användare köper och koppla det till person borde övriga samhället komma längre med det digitala är min tes....
-
@Magnus-Sälgö Håller helt med om att Öppna data tyvärr inte är prio ett i kommunerna och driver själv argumentet att allt som ligger på vår publika webbsida direkt borde kunna speglas till öppna data. Vi har api'er till all vår öppna data, inser dock att det inte är dessa api'er som du syfter till. Mycket av vår data är tyvärr inlåsta i system som vi ibland själva har svårt att få åtkomst till. Detta förhindrar vi numera genom att i alla upphandlingar kravställa att det ska finnas apier så vi kommer åt datan. I de allra flesta fall har vi apier som matar vår portal med data. Dessa apier ligger dock innanför våra brandväggar så de utanför organisationen kommer aldrig att få åtkomst till dessa. Men det behövs ju inte så länge vi har samma "masterdata" innanför som utanför brandväggen.
Vi håller långsamt, jag vet :), på att bygga upp en informationsstruktur/arkitektur som håller i längden för vår data. Men det tar tid och vi vill inte att det ska vara ett hinder för att kunna dela öppna data under resans gång. Så ibland blir det data med dålig kvalité, men å andra sidan så betyder det ju att vi då har data med dålig kvalité och vi är öppna med det.
@Stefan-Wallin vi kikar just nu på funktionalitet som ger möjlighet att ge feedback direkt på en datamängd. Är dock osäker på om det finns en publik vy för den, men ska definitivt kontrollera/önska det. -
@Maria-Söderlind det är en enormt lång resa och inte enkel.... #linkeddataneedslinkedpeople är min tro
Bara detta Europeana projekt jag länkade till startade 2010 och har säkert kostat oss skattebetalare 100 tals miljoner Euro och ändå blir det fel, tar 2 år att få en felticket som säger att dom har viktigare saker..
.... trots att skicka iväg konstnär x så att mottagande system förstår är enormt enkelt.... men ändå blir resultatet massa bilder utan bra metadata....
Jag gillar dock inte att vi får ett landskap där DIGG publicerar sina saker på Linked in/ Facebook och sedan sitter Facebook och tom "lurar" av apoteken vilka personer på Facebook som köper vissa läkemedel.... gissar DIGG nu kan köpa vilka som läser deras meddelande och som äter Viagra, har problem med frugan som käkar lugnade och emailar andra karlar.... eller annat galet... gissar att många har på sin GPS spårning så vi lämnar även spår hur ofta vi befinner oss på obskyra platser...
Digitalisering skall fram men användas på rätt sätt... typ mina utegym eller offentlig konst
och inte av kommersiella aktörer med låg moral.... andra sidan av problemet är att Apoteken/DIGG måste fundera över vilket ansvar dom har att hoppa i säng med "vem som helst"
-
Stockholm rankas nu som världens mest hållbara stad !!!
artikel 2022 Sustainable Cities Index
(ingen nyhet för oss som kan vår Pugh)
Kolla hur Stockolms nu kopplar kommuninvånares feedback till plats på karta se och lär
många kategeorier, synlig statistik om bra eller dåligt....
Massa kategorier att filtrera på
Statistik om det är "bra rop" eller feedback förbättringar gissar jag
- borde vara samma för alla dataset i portalen.... gärna fler parametrar, finns helpdesk, helpdesknummer, finns på GITHUB, teknisk mognad ..... nu har vi torrsimmat sedan 2010 med Öppna data dags att leverera
- borde vara samma för alla dataset i portalen.... gärna fler parametrar, finns helpdesk, helpdesknummer, finns på GITHUB, teknisk mognad ..... nu har vi torrsimmat sedan 2010 med Öppna data dags att leverera
-
-
@Stefan-Wallin Större delen denna konversation och mycket av det som Magnus pratar om handlar om hur man publicerar öppna data och hur specifikationerna bör utformas. Det är självklart bra att det finns tankar kring detta men är det inte så att:
DIGG publicerar ingen öppen data. De återpublicerar/skördar eller länkar till data som finns på andra ställen. Hur dessa datamängder är uppbyggda har DIGG inte mycket med att göra. De kanske borde, men i sådana fall som en röst när det kommer till framtagning av specifikationer.
De av er som har synpunkter på hur data publicerar bör snarare ta kontakt med respektive publicist. Det är dom som kan göra något åt det. DIGG har små möjligheter i dagsläget att göra detta. Ett steg i underlätta för er konsumenter att komma med önskemål och förslag framöver skulle kunna vara det som Maria i sitt ursprungsinlägg pratar om. Dvs att ge enklare möjlighet att prata brett om specifika publicerade datamängder.
Idag finns dock fortfarande möjlighet för er att prata med respektive publicist. Och får ni inte bra respons där så måste jag nog upprepa att DIGG inte i dagsläget kan trycka på vad gäller specifikationer och standarder. Det arbetet pågår på respektive publicist hemmaarena, Nationella Dataverkstaden och i andra forum som för mig tyvärr är okända.
-
@jonas-nordqvist sa i Communityskapande i Dataportalen - fler funktioner eller inte?:
DIGG publicerar ingen öppen data. De återpublicerar/skördar eller länkar till data som finns på andra ställen. Hur dessa datamängder är uppbyggda har DIGG inte mycket med att göra. De kanske borde, men i sådana fall som en röst när det kommer till framtagning av specifikationer.
Det stämmer i stort det du säger, förutom att DIGG också är en dataproducent. Vi publicerar fyra datamängder idag. Vi borde säkert publicera fler och det går säkert att hitta fel i våra datamängder också, men vi resonerar som @Maria-Söderlind - det perfekta är det godas fiende.
-
Som en följdtanke av detta, kan man ens tänka sig en myndighet som inte borde producera någon öppen data alls? Även om andra myndigheter har ansvar att publicera metadata om myndigheten så har jag svårt att tänka mig att det inte finns något som skulle kunna göras transparent tillgängligt i ett lättkonsumerat format relaterat till kärnverksamheten.
-
@Jonas-Nordqvist jag tror du missförstår mig och Magnus. Visst har vi åsikter om datakällorna som publiceras på dataportalen, men ämnet här är ju att diskutera ett förslag till communityskapande funktioner i dataportalen. Våra invändningar i stort är att istället för att bygga kommentarer frikopplat från datamängden bör man fundera på hur livscykeln runt de publicerade datamängderna fungerar och hur man jackar in communityt där om man faktiskt är seriös på att uppnå en fungerande engagerade community.
Jag(och förmodligen även Magnus) menar att dataportalen borde vara en datamängd i sig som kan dra nytta av att visa vägen för hur OpenSourcekulturen kan anammas i datapublikation.
Tänker direkt tillbaka på en annan funktion man bad om återkoppling på (filtrering och gruppering av data-källor där det från DIGG's önskan vara att begränsa till något smalt och unikt istället för brett och sammanlänkat)
I det fallet man är seriös på målet fungerande community snarare än på målet bygga en kommentarsfunktion, så kanske man ska fråga sig vad det är för interaktioner communityt är intresserad av att bidra med.
För mig är det viktiga i publicerad grunddata:
- att den håller hög kvalitet.
- att varje enskilt dataobjekt går att länka till och från som "samma-som"
- att existerande fel pekas ut tydligt
- att processen runt datan går att lita på
- att datamängderna går att hitta
För att uppnå detta behövs:
- att varje objekt i datan går att referera till otvetydigt med korrekta persistenta identifierare
- att felrättningar kan skötas transparent så att datan går att lita på & processen för att skicka in rättningar blir tydlig
- att det går att berika datamängderna med metadata från communityt så att fler kan hitta dem.
Vart det tydligt eller oklart?