Sök:

Sökresultat:

11757 Uppsatser om Dataöverföring - Sida 13 av 784

Databas för forskningsdata, VTI

På VTI, så som på många andra forskningsorganisationer samlas data in, bearbetas och reduceras till slutsatser som slutligen publiceras. Data sparas idag ofta på den enskilde forskarens dator och stannar där. En hantering som genom att att maskinvara skrotas, riskerar att data, på sikt försvinner.Ett alternativ är att samla data centralt och strukturerat. Det ger inte bara möjlighet att skydda data från tidens tand utan öppnar även för att fler enkelt ska kunna använda data från en studie i andra studier. Detta kan göras både genom både jämförande studier och metastudier, där andra aspekter än de ursprungligen menade utvärderas.

Byte mellan tåg och buss : En studie om att navigera i stationsmiljöer under tidspress

Detta examensarbete a?r skrivet inom a?mnet informationsdesign med inriktning mot rumslig gestaltning. A?mnet som studerats a?r orienterbarhet i stationsmiljo?er med syfte att utveckla navigeringsmo?jligheter pa? stationer vid byte mellan olika fa?rdmedel. Da?rfo?r har ett konceptfo?rslag tagits fram som ska underla?tta fo?r resena?rer att hitta sin transport, a?ven i en tidspressad situation.

Generering av analoga signaler från XSV-300

Att ett grafikkort ska behandla data och sen generera en bild på en skärm är en ganska logisk funktion för ett grafikkort. Vad som har gjorts här är att alla grundläggande funktioner för grafikkortet har tagits bort, detta för att ingen behandling ska göras. Detta har gjorts för att kunna låta data passera genom kortet med så hög hastighet som möjligt. Att låta data gå genom kortet var det första steget. Efter det skulle förhoppningsvis ett stabilt system ha uppnåtts där vi kunde göra överföringen av data snabbare.

Effektmätning inom eventbranschen : En plan för mätning av effekt och ROI inom eventbranschen

Det råder hård konkurrens inom eventbranschen, eventbyråerna måste ständigt förbättras för att vinna nya och behålla befintliga kunder. Inom eventmarknadsföring är syftet ofta att ändra attityder och känslor hos deltagarna och för att veta huruvida en ändring har skett behöver effekten mätas. Genom denna rapport har jag studerat i vilken utsträckning effektmätning sker inom eventbranschen.Till min förvåning kom jag fram till att det är sällan som effekten mäts. Framförallt för att det är kostsamt att anlita ett marknadsundersökningsföretag, men också fo?r att det är tidskrävande.

Konsulters beskrivning av Big Data och dess koppling till Business Intelligence

De allra flesta av oss kommer ständigt i kontakt med olika dataflöden vilket har blivit en helt naturlig del av vårt nutida informationssamhälle. Dagens företag agerar i en ständigt föränderlig omvärld, och hantering av data och information har blivit en allt viktigare konkurrensfaktor. Detta i takt med att den totala datamängden i den digitala världen har ökat kraftigt de senaste åren. En benämning för gigantiska datamängder är Big Data, som har blivit ett populärt begrepp inom IT-branschen. Big Data kommer med helt nya analysmöjligheter, men det har visat sig att många företag är oroliga för hur de ska hantera och ta tillvara på de växande datamängderna.

Revisionskvalitet : Artikel 19, 35 och 40 och dess inverkan på intern och extern kvalitetskontroll

Författare: Daniel Lundberg, Anders Verf och Daniel WestinTitel: Revisionskvalitet - Artikeln 19, 35 och 40 och dess inverkan på intern och externkvalitetskontroll.Bakgrund och problem: Revisorns roll hade till följd av finanskrisen 2008 ifrågasatts i denmening hur de kunde skriva rena revisionsberättelser utifrån företagens finansiella rapporter.Artikel 19 och 35 (kompletterat med artikel 40) var tre av de artiklar som EU-kommissionensförslag bestod av som en reaktion på finanskrisen. Dessa berörde den interna och externakvalitetskontrollen. Regleringsförfarandet skedde här med hjälp av lagstiftning och en diskussionhar förts angående när lagstiftningsförfaranden ska påbörjas och om det är en adekvat åtgärdefter kriser. Problemställningen fokuserade på att hantera kvalitetsfrågan i revisionen relaterat tillde nya förordningarna och direktiven om intern och extern kvalitetskontroll. Hur regleringenstillvägagångssätt möttes av branschen var även en del av den problemformulering som låg tillgrund för uppsatsen.Syfte: Med den ovan angivna problemställningen som grund var syftet att beskriva och förklaravad branschen förväntade sig till följd av artikel 19 och 35 i revisionspaketet när det gällde deinterna och externa kvalitetskontrollerna och hur det i förlängningen kunde påverka revisionensolika kvalitetsaspekter.

Is big that big? -En studie om hur banker använder bid data i sin kundhantering

Bakgrund och problemdiskussion: I takt med att vår omgivning blir mer digitaliserad skapasvarje dag, timme och sekund allt mer data. De stora datamängder som skapas går underbenämningen ?big data? och kan förklaras som stora datamängder som överskrider kapacitetenför vad ett vanligt databassystem kan hantera. Genom big data kan företag få ökad informationoch kunskap om sina kunder och därmed få ett bättre underlag till sina Customer Intelligencelösningar.Big data är på många sätt lovande men det kvarstår en del utmaningar, bådeaffärsmässiga och tekniska innan det kan anammas fullt ut. Arbete och hantering av data tar idagupp cirka 7-10 % av bankers rörelseresultat och frågan är hur de skulle kunna utvinna och lagradenna data på ett effektivt sätt.

En banks organisationskultur i två länder : En studie om Handelsbanken i Sverige och Luxemburg

Författare: Daniel Lundberg, Anders Verf och Daniel WestinTitel: Revisionskvalitet - Artikeln 19, 35 och 40 och dess inverkan på intern och externkvalitetskontroll.Bakgrund och problem: Revisorns roll hade till följd av finanskrisen 2008 ifrågasatts i denmening hur de kunde skriva rena revisionsberättelser utifrån företagens finansiella rapporter.Artikel 19 och 35 (kompletterat med artikel 40) var tre av de artiklar som EU-kommissionensförslag bestod av som en reaktion på finanskrisen. Dessa berörde den interna och externakvalitetskontrollen. Regleringsförfarandet skedde här med hjälp av lagstiftning och en diskussionhar förts angående när lagstiftningsförfaranden ska påbörjas och om det är en adekvat åtgärdefter kriser. Problemställningen fokuserade på att hantera kvalitetsfrågan i revisionen relaterat tillde nya förordningarna och direktiven om intern och extern kvalitetskontroll. Hur regleringenstillvägagångssätt möttes av branschen var även en del av den problemformulering som låg tillgrund för uppsatsen.Syfte: Med den ovan angivna problemställningen som grund var syftet att beskriva och förklaravad branschen förväntade sig till följd av artikel 19 och 35 i revisionspaketet när det gällde deinterna och externa kvalitetskontrollerna och hur det i förlängningen kunde påverka revisionensolika kvalitetsaspekter.

Mjölkproduktion ? kvalitetssäkring från gård till mejeri samt möjliga risker för konsumenten

Kvalitetssäkringssystem används i livsmedelsproduktionen för att identifiera och kontrollera de potentiella faror som kan påverka slutproduktens kvalité och säker-het. I produktionen av pastöriserad dryckesmjölk är Hazard Analysis Critical Con-trol Point (HACCP) ett väl etablerat redskap som används för att eliminera de mi-krobiella, kemiska och fysikaliska risker som kan drabba mjölk. Kvalitetsförsäm-ring hos mjölk kan orsakas av flera olika bakterier och kvalitetsledningssystem genomförs på både mjölkgård och mejeriföretag för att säkerställa att mjölkens bakteriehalt hålls på en godkänd nivå. Syftet med denna litteraturöversikt är att sammanställa den information som publicerats om de mikrobiologiska faror som hotar produktionen av kvalitetssäker mjölk samt vikten av att kontrollera dem med hjälp av kvalitetssäkringssystem som HACCP. Fokus har lagts på de bakterier som är vanligt förekommande i miljön kring mjölkproduktion samt hur de riskerar att kontaminera mjölk, vars kvalité och säkerhet därmed försämras.

Autenticitet i ett öppna data-sammanhang : Utmaningar och möjligheter ur ett arkivvetenskapligt perspektiv

By tradition, archival sciences has emerged in a context with defined information processes, with explicit information producers and custodians to which consumers make requests for the information. In this process, the archival science has developed methods and strategies to preserve authentic and reliable records and by that providing trustworthy information. In an online society, people are using the internet to get information for different purposes. Even though there is no legal obligation to guarantee the authenticity, it is of societal importance that the end users get trustworthy information. In this online context, open data is a trend that is growing fast over the world and it is interesting because its conditions raises many questions regarding authenticity.Since open data is free to reuse, link and combine with other information, and it is preferably in primary format it raises questions about how to maintain the integrity and identity of the information, which is the constituents of authenticity as it is used in this work.

Vad gör innehåll bra i sociala medier? : En studie med framtagna rekommendationer för hemsidan Wallyfy

Wallyfy is planned to be a social webmagazine with a focus on good content, with a quality check and moderation of the published content. The author of the study provides Wallyfy with thoughts and ideas about the website content and functionality. The main problem of the study was to explore what makes good content in social media for the potential users of Wallyfy, also using this insight to provide Wallyfy with directions for making decisions regarding both functionality and content. The theory of the study is being used as a starting point for understanding the phenomenom social media and to easier grasp the problem. The method of the study is based on user- centered thinking in design, where the author seeks to understand the participant?s emotions, values and dreams.

Uppdatering av metadata i ett Data Warehouse: ett organisatoriskt perspektiv

Data Warehouse är ett relativt nytt fenomen i jämförelse med traditionella databassystem, och i och med de senaste årens kraftiga tekniska utveckling har förutsättningar för att realisera konceptet skapats. Inom branschen finns ett antal problem rörande metadata, som i denna uppsats legat till grund för vår inriktning. Många av dessa problem beskrivs utifrån ett tekniskt perspektiv, vilket detta arbete inte gör. Vi har istället valt att undersöka vilka problem som föreligger vid säkerställning av att metadata hålls uppdaterat i ett Data Warehouse med hjälp av tydlig ansvarsfördelning. Vi har funnit att det föreligger vissa likheter mellan de problem som konceptet Knowledge Management angriper och de problem som en organisation ställs inför när man söker säkerställa att metadata hålls uppdaterat med hjälp av tydlig ansvarsfördelning.

Svensk delnominering av Lundamaterialet och en undersökning av prepositioner och komparationsformer hos barn i åldrarna 3:0-5:11 år

The main purpose of the study was to collect normative data for Lundamaterialet,revised version, divided into phonology and grammar, for childrenaged 4:6-5:11. Another aim was to explore how children aged 3:0-5:11 had acquiredprepositions and different forms of comparison. 195 children with typicallanguage development participated. The children were divided into six groups,116 children from the three oldest groups participated in the normative data. Theresults showed an increasing mean value with age for both phonology and grammar.The older children had acquired the prepositions and the forms of comparisonbetter than the younger ones.

Aktiv bullerdämpning i entreprenadmaskin

En mätserie utfördes på en entreprenadmaskin där entreprenadmaskinen var en tandemvält. Data som spelades in på en DAT-bandspelare var motorns rotationsfrekvens, valsarnas vibrationer samt ljudfältet i kabinen. Den insamlade datamängden analyserades m.a.p dess spektra samt ljudnivåer. Vidare predikterades resultat till implementering av det adaptiva systemet ur dessa insamlade data. Viss laboration utfördes på en modell av det adaptiva systemet m.h.a insamlade data.

En studie om kunskapso?verfo?ring vid o?ppen innovation genom crowdsourcing

Organizations that want to maintain a good innovation capability can seek knowledge both within and outside its boundaries. Opening up innovation processes, through so-called open innovation, allows organizations to combine internal and external knowledge sources in order to include previously excluded perspectives to the innovation process. This study examines how knowledge is created and transferred when conducting open innovation through crowdsourcing. It is done based on Nonaka?s (1991; 1994) theory of how knowledge is created through conversion processes, where implicit knowledge can be converted into explicit knowledge and vice versa.

<- Föregående sida 13 Nästa sida ->