Sök:

Sökresultat:

11864 Uppsatser om Data processing pipeline - Sida 20 av 791

Företags hantering av konsumentdata : Speglar användares elektroniska fotspår förhållningssättet till integritet?

The essay concerns corporation?s usage and consumer?s attitude towards the phenomenon Big Data. The aim is to analyse whether corporation-management and future ambitions concerning consumer data coincide with attitudes and opinions of today's consumer, and how these opinions reflect consumer behaviour online. The essay is limited to focus on how companies use consumer data in order to better understand and improve the efficiency of their marketing. A self-composed analyse-model was created using previous studies concerning Internet-usage in Sweden, previous management analysis of corporations use of Big Data combined with theory of Cognitive Dissonance. A questionnaire was then created with the analyse model as foundation.

Inkorporering av extern data i en DW-baserad BI-lösning - utvärdering av ett ramverk

För många verksamheters långsiktiga överlevnad, är det av stor vikt att kunna göra korrekta analyser för att därigenom också kunna fatta bra beslut. Till sådana analyser krävs data av olika slag. Sådana data kan komma från källor inom verksamheten (interna), men många gånger kan data från källor utanför verksamheten (externa) också bidra med värdefull omvärldsinformation. Dataunderlaget till analyserna kan med fördel inkorporeras i ett Data Warehouse (DW), vilket ger möjlighet att använda informationen på ett strukturerat sätt inom ramen för någon form av Business Intelligence (BI)-lösning.Processen att inkorporera data från olika källor till ett DW kan vara komplex - i synnerhet då externa datakällor används. Ett ramverk har tidigare tagits fram i syfte att fungera som stöd vid en inkorporering.

Övervakningssystem för inomhusmiljöer

Övervakningssystem har haft en viktig roll i samhället under en lång period. Syftet med dessa systemen har inte ändrats, det är alltid säkerhetsaspekten som har varit huvudpunkten. Effektiviteten på ett övervakningssystem beror oftast på den mänskliga faktorn, någon måste bearbeta bildflödet som spelas in för att dra definitiva slutsatser. Under senare år har dessa övervakningssystem, i takt med teknologins utveckling, blivit mer intelligenta. Metoder som tillämpar automatisk analysering av en given bild har introducerats, vissa av dessa tekniker har redan hunnit bli en standard. Denna studie ska utveckla en prototyp som använder sig av tekniken och stresstesta för att identifiera eventuella brister.

Temperature monitoring during transport of test samples

Quality is the main focus in management of all laboratories. Accurate results of the analyses are not only determined by the analytical procedure but also by preanalytical factors. In the total analytical process of clinical specimens, there are many possible preanalytical sources of error. Monetoring of temperature on test samples of the transport boxes is one way to reduce the mistakes in the preanalytical phase.In this study, four laboratories from primary health care were invited to participate. The temperature has been measured on test samples of the transport boxes being delivered to the laboratory.In three cases the temperature remained within the limits, but in the fourth case the temperature varied more than the allowed interval.

Inställning till och val av livsmedelsprodukter bland personer som är över 55 år

Data retrieved from airborne laser scanning represents a new source of forest data. Today, the technology has matured so that it can function in an operational environment. The aim of this study was to compile areas of application of laserdata in forestry. Moreover to analyze costs and accessibility of laserdata. The goal was to provide private forest owners information to support assessments of possible benefits of laserdata.

Bildanalys för navigering i autonoma sensor-platformar

Det bör vara möjligt att skapa verktyg för att beskriva scenarion och med hjälp av tillgänglig mjukvara för visualisering kunna spela upp både verkliga och simulerad bilddata. Detta examensarbete beskriver hur några sådana verktyg tagits fram. Till förfogande fanns en stor mängd bilddata, insamlad på ett militärt övningsområde som dessutom finns representerad som en syntetisk omvärldsmodell. Insamlingen gjordes med en UAV (Unmanned Aerial Vehicle)- prototyp, som var utrustad med videokamera, IR-kamera och tröghetsnavigeringssystem. För att simulerad bilddata skulle få ett verklighetstroget intryck placerades markfordon ut i den syntetiska modellen på exakt samma position som under fältförsöken. Markfordonens position mättes in med DGPS och UAV:ns hastighet, position och rotation bestäms med GPS och tröghetsnavigeringssystem. Resultatet, i form av lagrad tröghetsnavigerings- och sensorstyrnings-data, ges efter en Kalmanfiltrering och blir vanligtvis noggrannare än vad som erhålls från de respektive delsystemen. Tyngdpunkten i arbetet låg i att ta fram Matlab-funktioner som plockar ut rätt vy vid rätt tidpunkt och åskådliggör detta på ett tydligt sätt, samt att placera ut markfordonen enligt de givna koordinaterna.

Databas för forskningsdata, VTI

På VTI, så som på många andra forskningsorganisationer samlas data in, bearbetas och reduceras till slutsatser som slutligen publiceras. Data sparas idag ofta på den enskilde forskarens dator och stannar där. En hantering som genom att att maskinvara skrotas, riskerar att data, på sikt försvinner.Ett alternativ är att samla data centralt och strukturerat. Det ger inte bara möjlighet att skydda data från tidens tand utan öppnar även för att fler enkelt ska kunna använda data från en studie i andra studier. Detta kan göras både genom både jämförande studier och metastudier, där andra aspekter än de ursprungligen menade utvärderas.

Generering av analoga signaler från XSV-300

Att ett grafikkort ska behandla data och sen generera en bild på en skärm är en ganska logisk funktion för ett grafikkort. Vad som har gjorts här är att alla grundläggande funktioner för grafikkortet har tagits bort, detta för att ingen behandling ska göras. Detta har gjorts för att kunna låta data passera genom kortet med så hög hastighet som möjligt. Att låta data gå genom kortet var det första steget. Efter det skulle förhoppningsvis ett stabilt system ha uppnåtts där vi kunde göra överföringen av data snabbare.

Sanningens ögonblick : En fallstudie av kvalitetssäkring i tjänsteföretag

AbstractTitle: The Moment Of Truth; A study of service quality assuranceAuthors: Fanni Helminen and Linda ElsborgLevel: Bachelor Thesis in Business Administration, C-level.Advisor: Lars- Johan Åge and Jens Eklinder FrickDate: 2014- JunePurpose: Quality assurance has become a vital concept and an important tool to ensure that employees are able to deliver high service quality. The purpose of this study will be to elucidate how service companies can apply the use of sevenfundamental features supporting service quality in their quality assurance; recruitment and selection; training, teamwork; empowerment; performance appraisals and rewards; communication, and culture (of the organization). Furthermore, we will illustrate how the type of business entity, organizational structure and organizational resources afflicts the seven features.Method: Method: We will, from a hermeneutic point of view, apply and qualitative deductive research method. Data have been collected through a case study. The data have been transcribed and the analytical method has been selected based on the conducting purpose.

Framtagning av ett nytt recept för clear-coat batter av pommes frites : En teknisk och sensorisk utvärdering

The requirements of good quality and appetizing fast food increases continuously as a consequence of a community where food is always available. The crispiness of French fries is an issue that must be considered in this context, since it tends to decrease and give the fries a soft surface not appreciated by the consumer. To prolong the crispiness, the fries can be coated by a batter, a mix of starches. The batters used often consists of modified starches, e.g. cross-linked, acetylated and dextrinizated to increase and prolong crispiness, flour to stabilize the batter and sodium bicarbonate to make the batter ?rise?.The cross-linked starch keeps the granules in a swelled state and prevents them from breaking when exposed to heat or processing: therefore, it delays the gelatinization and decreases the stickiness of the batter.

Konsulters beskrivning av Big Data och dess koppling till Business Intelligence

De allra flesta av oss kommer ständigt i kontakt med olika dataflöden vilket har blivit en helt naturlig del av vårt nutida informationssamhälle. Dagens företag agerar i en ständigt föränderlig omvärld, och hantering av data och information har blivit en allt viktigare konkurrensfaktor. Detta i takt med att den totala datamängden i den digitala världen har ökat kraftigt de senaste åren. En benämning för gigantiska datamängder är Big Data, som har blivit ett populärt begrepp inom IT-branschen. Big Data kommer med helt nya analysmöjligheter, men det har visat sig att många företag är oroliga för hur de ska hantera och ta tillvara på de växande datamängderna.

Is big that big? -En studie om hur banker använder bid data i sin kundhantering

Bakgrund och problemdiskussion: I takt med att vår omgivning blir mer digitaliserad skapasvarje dag, timme och sekund allt mer data. De stora datamängder som skapas går underbenämningen ?big data? och kan förklaras som stora datamängder som överskrider kapacitetenför vad ett vanligt databassystem kan hantera. Genom big data kan företag få ökad informationoch kunskap om sina kunder och därmed få ett bättre underlag till sina Customer Intelligencelösningar.Big data är på många sätt lovande men det kvarstår en del utmaningar, bådeaffärsmässiga och tekniska innan det kan anammas fullt ut. Arbete och hantering av data tar idagupp cirka 7-10 % av bankers rörelseresultat och frågan är hur de skulle kunna utvinna och lagradenna data på ett effektivt sätt.

Informativa strukturer och egenskaper som stöd för automatiska processer i människans informationshantering

The purpose of this thesis is to create opportunities for an efficient interchange of information between humans and technology, especially for the skilled user, and put the designprincipal for informative structures and features into practice. Informative structures and features in a large number of information items helps the peripheral visual system to automatically capture knowledge through logical patterns.A field experiment was done to evaluate if informative structures and features, implicate efficient human information-processing, even in a small study. The results was ambiguous because the quantitative part of the investigation didn?t show any significant differences, whereas the qualitative showed that people prefer a dynamic document with a high degree of informative structures and features over a dynamic document with a low degree of informative structures and features. Even if this study was inconsistent, probably because to few subjects where used, the implication of the research that?s behind it is solid.

Offer eller förövare? : En analys av Dagens Nyheters rapportering om mäns våld mot kvinnor under perioden 1994-2009.

The purpose of the study was to analyze how media, in this case, the daily newspaper Dagens Nyheter, produces the men and women in men's violence against women in close relationships in news articles and if there has been a change over time in this production. It is a qualitative study in which 40 news articles from DN were analyzed. The starting point in the tanks around the analysis is from a social constructive perspective. Critical discourse analysis is the method I chose to use in the processing of news stories. The result is divided into four different blocks where each block presents the results and the analysis for the following years: 1994, 1999, 2004 and 2009.

Autenticitet i ett öppna data-sammanhang : Utmaningar och möjligheter ur ett arkivvetenskapligt perspektiv

By tradition, archival sciences has emerged in a context with defined information processes, with explicit information producers and custodians to which consumers make requests for the information. In this process, the archival science has developed methods and strategies to preserve authentic and reliable records and by that providing trustworthy information. In an online society, people are using the internet to get information for different purposes. Even though there is no legal obligation to guarantee the authenticity, it is of societal importance that the end users get trustworthy information. In this online context, open data is a trend that is growing fast over the world and it is interesting because its conditions raises many questions regarding authenticity.Since open data is free to reuse, link and combine with other information, and it is preferably in primary format it raises questions about how to maintain the integrity and identity of the information, which is the constituents of authenticity as it is used in this work.

<- Föregående sida 20 Nästa sida ->