Fellesarrangemetet står først, ellers er foredragene nummerert etter faggruppe:
E - Ernæring og Næringsmiddelteknologi
M - Makromolekyl- og kolloidkjemi
T - Teoretisk og beregningsbasert kjemi
Plant sterols (phytosterols) are a group of compounds structurally very similar to cholesterol. The plants sterols occurring most frequently in the nature are sitosterol, campesterol and stigmasterol. Saturated plant sterols such as sitostanol and campestanol are present in nature in trace amounts. When plant sterols or plant stanols are present in the diet in sufficient quantities, they reduce cholesterol absorption from the gastrointestinal tract, which leads to a reductions in serum total and LDL cholesterol levels.
Benecol margarine, launched in Finland in 1995, was the first commercial food product to utilise the cholesterol-lowering effect of plant sterols. The active ingredient of Benecol margarine is plant stanol ester obtained by saturation of commercially available plant sterols and by subsequent esterification of the obtained plant stanol with food grade fatty acids derived from vegetable oils.
Currently foods enriched with plant sterol are commercially available in Europe, USA, South America, Australia, and Asia. These foods are based mainly on so-called 4-desmethyl sterols obtained either from tall oil (wood, mainly pine derived sterols) or vegetable oils. In most of the applications plant sterols and stanols are used in their fatty acid ester forms.
The cholesterol lowering effect of plant stanol esters have been verified in over 40 published clinical trials. The cholesterol-lowering efficacy of plant stanol ester is independent of the food matrix used. The cholesterol lowering effect of plant stanol esters complements the beneficial effects of a healthy diet and cholesterol medication.
The cholesterol lowering effect can be measured with 1-2 weeks and lasts as long as daily use of plant stanol ester continues. It was recently shown that dietary plant stanol ester reduced both serum blood cholesterol and triglycerides in subjects with metabolic syndrome.
Numerous clinical and safety studies show that plant stanols esters are safe, without adverse effects, including gastrointestinal effects. Plant stanols are virtually un-absorbable and chemically stabile against oxidation and enzymatic conversions by colon bacteria. Currently various plant stanol ester enriched foods such as spreads, yoghurts, milk, pasta, are sold under the Benecol brand in 22 countries all over the world.
Jacob Bronowski once pointed out, Many people believe that reasoning, and therefore science, is a different activity from imagining. But this is a fallacy Reasoning is constructed with movable images just as certainly as poetry is. In the spirit of this thought, it may be both interesting and instructive to pursue an investigation into the role that mental visual images have played in the history of science, and especially in the history of chemistry. The speaker will recount some enlightening and amusing episodes from a crucial period in the history of our science, a time when chemists were achieving their earliest dramatic successes in imagining, and then scientifically verifying, the detailed architecture of the molecules whose world lay far beyond the reach of human senses.
Snow is at or close to its melting point and has a high specific surface area. Accordingly, it is always changing from one grain shape to another. The form of the precipitation disappears quickly and is replaced by one of many other forms depending on the temperature, density, temperature gradient and liquid water content. Thus the physical properties are always changing, often in specific layers that have large effects on snow-slope stability. The changes are most dramatic at the surface which is exposed to daily changes in conditions.
The classical explanation for the low frictions of snow and ice is pressure melting-regelation. However, both theory and measurement show that the process is frictional heating. The heat balance at the sliding interface is critical. Direct temperature measurements at the interface show that it is sensitive to ambient temperature, solar radiation, color, and thermal conductivity of the slider. Ski-base temperature is very sensitive to ski color because of direct solar radiation absorption on the base. Clearly, thermal conductivity is important since a highly conductive slider can rob the interface of the heat needed to generate the melt layer.
Electrical charge accumulation at the interface is thought to be important but direct measurements suggest that charge accumulation on skis is only possible in deep powder snow. However, measurements with ice suggest that friction can be altered by the application of electrical charges so applications of this idea may be possible.
Fluorocarbon waxes greatly reduce capillary adhesion at warmer temperatures; both theory and experiment support the use of these highly water-repellent waxes. However, the role of surface roughness is uncertain since neither theory nor experiment allows the development of simple ideas about roughness. Results form elastohydrodynamics suggest that crosswise ridges might help build water-layer thickness ahead of the ridges but full application of this theory to sliders on snow/ice remains to be done.
The Arctic Monitoring and Assessment Programme (AMAP) was initiated in 1991 by ministers from the eight Arctic countries (Canada, Denmark, Finland, Iceland, Norway, Russia, Sweden and USA) with the task to monitor and assess the pollution of the Arctic, including effects on biota and humans. In 1993 AMAP was asked to include assessment of climate change and UV/ozone. AMAP has established expert groups for each of the key issues of concern, e.g. persistent organic pollutants (POPs), heavy metals, radionuclides, human health and climate/UV.
The AMAP assessments have documented that a variety of contaminants such as POPs, heavy metals, including mercury and lead, radionuclides and acidifying components such as sulphur and nitrogen are transported into the Arctic area and deposited in the environment. Some of these contaminants bioaccumulate in the food chain. POPs accumulate mostly in the marine food chain affecting high trophic level predators such as polar bears and killer whales, but also the indigenous populations living mostly on a marine mammals diet. The same goes for mercury while for radionuclides these have accumulated mostly in the terrestrial food chain and shown to affect mostly those indigenous peoples living of reindeer meet. Effects due to the exposure to POPs and methyl mercury have been documented in Arctic animals, e.g. reduced immune system and survival of cubs of polar bear and glaucous gulls, and on humans. The situation is a paradox - the people living in the Arctic have hardly used any of the products containing these contaminants, but are among the most highly exposed people on the globe. This has been called "the Arctic dilemma", because the contaminants are found at high concentrations in those parts of the animals (blubber and meat) that also are important as food (energy and vitamins) for the indigenous peoples.
The programmes for monitoring, assessment, QA/QC, data handling, etc. have been developed and are available from www.amap.no.
Abtract mangler
The proteomics group at the Biotechnology Centre of Oslo (BiO) is a facility performing research and providing proteomics resources and expertise. Early on during the establishment of the proteomics platform a focus was made on the development of proteomics resources as a technology that is rapidly growing with an increasing impact on research in many fields. In addition to service, the main activity of the proteomics group is the application and development of proteomics techniques to perform proteome analyses of cell death models. The main components of the proteomics platform are labeling techniques for quantitative proteomics (e.g., SILAC), protein separation by gel electrophoresis, MALDI-TOF/TOF-MS (Ultraflex II) for peptide mass fingerprinting and LIFT-MS/MS, a nano-LC (Ultimate 3000) MALDI-MS sample spotter (Probot), and a nano-LC (Agilent 1200)/ion trap-ESI-MS (6330 Agilent) system for MS/MS.
Proteiner er en kompleks gruppe biologiske makromolekyler som innbefatter blant annet enzymer, reseptorer, antistoffer og transportmolekyler. Mange proteiner er involvert i ulike sykdomstilstander og det er derfor av stor interesse å karakterisere disse for å kunne kartlegge underliggende sykdomsmekanismer og å definere nye "drug targets".
Massespektrometri (MS), ofte i kombinasjon med miniatyrisert væskekromatografi (nanoLC), har blitt en uvurderlig teknikk når det kommer til å bestemme proteiners primærstruktur og å bestemme post-translasjonelle modifikasjoner (PTMs). Analyse av intakte proteiner gir som regel ikke tilstrekkelig informasjon til å verken identifisere proteinet eller til å si noe om eventuelle modifikasjoner. Derfor brytes proteinene ned ved hjelp av spesifikke proteaser og fragmentene analyseres. De klart mest brukte ioniseringsteknikkene er "matrix-assisted laser desorption/ionization" (MALDI) og "electrospray ionization" (ESI). MALDI-MS er en veldig følsom teknikk som kan identifisere et protein på veldig kort tid ved hjelp av "peptide mass fingerprint" (PMF) uten separasjon av peptidene på forhånd. ESI brukes som oftest i kombinasjon med nanoLC hvor peptidene separeres før de analyseres med MS/MS. Ved å studere fragmentene som dannes kan man identifisere proteinet og eventuelle modifikasjoner.
Dette foredraget vil gi en innføring i hvordan peptider og proteiner kan karakteriseres ved hjelp av LC og MS.
Foredraget vil gi en oversikt over aktiviteter ved vår avdeling, med fokus på anvendelse av kromatografiske metoder og inntog av massespektrometri i laboratoriet. Deretter presenteres de små skritt som er tatt innen proteomikk-forskningen.
Det er stor interesse innen klinisk analyse for å finne nye biomarkører for ulike tilstander. Ved å måle nivået av flest mulig proteiner samtidig håper man å finne nye sammenhenger som kan kaste lys over de prosesser som fører til sykdom.
Det er mange utfordringer knyttet til proteomikkstudier. Prøvematerialet er stort sett veldig komplekst, og det er ofte høye konsentrasjoner av proteiner som tilsynelatende har lav biomarkør-verdi, og som overskygger mer interessante proteiner. I tillegg kommer problemer med prøvetaking og håndtering, prøveopparbeidelse og fraksjonering, kromatografisk separasjon, massespektrometrisk deteksjon og ikke minst hvordan finne et system i galskapen vha. dataanalyse.
Klassisk proteomikk utføres ved hjelp av 2-dimensjonell elektroforese for separasjon av intakte proteiner. Til selve identifiseringen av de separerte proteinene brukes massespektrometri (MS), med to alternative ioniseringsteknikker, enten matrix assisted laser desorption (MALDI) eller electrospray ionization (ESI). Proteomikk-studier av intakte proteiner kan også gjøres direkte vha. massespektrometri, og da helst ved bruk av MALDI i kombinasjon med avansert MS instrumentering. Det er også mulig å analysere enkeltproteiner eller en blanding av proteiner ved å dele proteinene opp i mindre peptid-fragmenter etterfulgt av væskekromatografi (LC) koblet med MS (LC/MS). Proteomikk-studier basert på denne noe mer kontroversielle tilnærming har vært benyttet ved SUS. Prøver fra ulike pasienter har vært sammenlignet ved hjelp av prinsipalkomponentanalyse (PCA) i forsøk på å gruppere prøvene basert på et peptidmønster og deretter identifisere proteinbiomarkører
Det har vært jobbet både med cerebrospinalvæske (CSF) og celledyrkingsmedium ved SUS. Erfaringen har vært at det ikke er lett å finne et mønster i jungelen av peptider uten at overskyggende proteiner som albumin, transferrin og gammaglobuliner fjernes i forkant. Immunoaffinitets-ekstraksjon har vist seg å være en lovende og selektiv opprensingsteknikk for denne jobben.
Biomarkører er, som indikator for en biologisk tilstand, som oftest proteiner. I tilfelle en sykdomstilstand er konsentrasjonsnivåene av disse proteiner endret. Ved å måle konsentrasjonsnivåene kan visse diagnoser bekreftes eller en sykdomsbehandling monitoreres. Utfordring ved å måle proteinbiomarkører i humant materiale er at de har, analytisk sett, omtrent like egenskaper som alle andre proteiner i prøven. Dette gjør prøveopparbeidelsen og måling i lave konsentrasjonsområder, ved hjelp av kromatografiske teknikker problematisk.
I dette fordraget diskuteres det hvordan LC-MS allikevel er et godt alternativ til de tradisjonelle ELISA og RIA teknikker. Ved hjelp av reelle eksempler fra LC-MS av noen utvalgte biomarkører belyses blant annet følgende trinn i prøveopparbeidelsen og analysen: bruk av trypsin, identifisering av peptider, utvelgelse av indikatorpeptider, minsking av prøvekompleksitet i plasmaprøver og kvantifisering ved hjelp av intern standard.
Arbeidslivet er kanskje den viktigste økonomiske faktoren i samfunnet. Arbeidsmiljøfaktorer er en god indikator på tilstanden i arbeidslivet, med sykefravær som en omdiskutert variabel. Arbeidsmiljøproblematikk fyller derfor ukentlig spalte på spalte i dagspressen, med temaer som spenner over psykososiale og organisatoriske problemstilling, muskelskjelettplager, kjemisk helsefare, arbeidsrelatert sykefravær mm. Dette er også et tema som i høyeste grad er på den politiske dagsordenen.
Analytisk kjemi benyttes i en rekke problemstillinger knyttet til både arbeidsmiljøforskning og løpende risikovurdering av virksomheters arbeidsmiljø. Resultatene av disse analysene kan i enkelte tilfeller få stor betydning for politikkutvikling og myndighetsutøvelse innen dette forvaltningsområdet. Snarere enn å fokusere på de siste nyvinningene innen analytisk-kjemiske teknikker eller kritiske detaljer for optimalisering av analytisk-kjemisk metodikk, vil dette foredraget fokusere på tilfeller hvor analytisk kjemi indirekte har hatt og kan få stor betydning for utviklingen i arbeidslivet.
The occurrence of pharmaceutical substances in the aquatic environment serves as a timely reminder that not only those substances traditionally targeted, or those that occur on priority lists for monitoring programmes, contaminate the aquatic environment. This presentation will provide a summary of the occurrence data generated to date for pharmaceutical substances in marine and freshwater surface waters, ground waters, wastewater treatment work (WTW) effluents and drinking waters. Particular focus will be placed on a case study from Norway where the focus to date has been on inputs from WTWs into Oslofjord.
Per- og polyfluorerte alkylstoffer (PFAS) er en gruppe antropogene kjemikalier med et stort spekter av fysikalsk-kjemiske egenskaper og bruksområder. Noen av disse stoffene har blitt produsert og brukt i 50år, men først etter utviklingen av væskekromatografi koblet til massespektrometri (LC-MS), ble tilstrekkelig følsomme miljøanalyser mulig (pg/g prøve). Den amerikanske forskeren Kristen Hansen publiserte i 2001 en analysemetode for bestemmelse av utvalgte PFAS i biologiske prøver og metoden har siden blitt benyttet til å undersøke innhold av PFAS i arkiverte miljøprøver fra hele verden. PFOS, den hyppigst forekommende av dem, ble påvist i nesten alle prøvene med konsentrasjon på nivå med eller høyere enn nivåene man finner av klorerte miljøgifter som PCB og DDT. Disse studiene har åpnet et nytt felt for miljøkjemikere verden over.
Bestemmelse av PFAS har lenge vært forbundet med analytiske utfordringer, men de siste fem årene har det blitt publisert flere studier som bekrefter tilstedeværelsen av PFAS både i miljø og mennesker. Antall og type forbindelser som rapporteres varierer i stor grad. De ulike PFAS har forskjellige fysikalsk-kjemiske egenskaper og stiller derfor ulike krav til analysemetodene.
Several hundred scientific papers, theses, workshops and conferences have been devoted to the concept of metrological traceability since the end of the 1980:s. Special working groups, committees and organisations were established, and guidelines published to promote and inform about it. Via European Union directives, requirements for traceability entered into legislation, its implementation supported by a large number of harmonised standards.
The concept of metrological traceability may (still) be unfamiliar to many chemists, but the underlying work is not. It is about demonstrating that laboratory results are accurate, hence linking the concept to more familiar terms, such as calibration, measurement procedure, certified reference material, and the International System of units (SI). The driving force is our desire and need to compare measurements over space and time, which is essential in commerce, society and science.
The ISO 17511 standard (2003) illustrates, generically, various calibration hierarchies and metrological traceability chains. The graphical approach has slowly spread and examples of traceability chains for specific applications now appear in other literature. A project to formulate the essential characteristics of the traceability concept in chemical measurement was approved by IUPAC, and the draft document (2007) contains a variety of examples of traceability chains.
The presentation will highlight requirements set out in ISO/IEC 17025 and other international conformity assessment standards. Examples from chemistry and laboratory medicine will be used to illustrate calibration hierarchies, which enable the establishment of metrological traceability of measured quantity values to a common metrological reference. Documentation from manufacturers of reference materials will be commented on. Reference will be made to the 3rd edition (2007) of the International Vocabulary of Metrology - Basic and General Concepts and Associated Terms ("VIM"), and to the Guide to the Expression of Uncertainty in Measurement ("GUM").
Inom EU finns lagstiftning som anger krav på laboratorier och de metoder som används inom offentlig kontroll. Exempelvis finns krav på ackreditering enligt ISO/IEC 17025. Detaljerade krav på validering och prestandakriterier finns inom vissa områden. För kollaborativt avprövade metoder kan en enklare validering utföras. Är metoden helt egenutvecklad blir valideringsprocessen omfattande
När en egenutvecklad metod är färdig ska följande fastställas:
Några av dessa parametrar kommer att belysas med exempel från Livsmedelsverkets verksamhet.
Referenser:
882/2004 Förordning om offentlig kontroll för att säkerställa kontrollen av efterlevnaden av foder och livsmedelslagstiftningen samt bestämmelserna om djurhälsa och djurskydd.
333/2007 Förordning om provtagnings- och analysmetoder för offentlig kontroll av halten av bly, kadmium, kvicksilver, oorganiskt tenn, 3-MCPD och bens(a)pyren i livsmedel.
2002/657 Kommissionens beslut om genomförande av rådets direktiv 96/23/EG avseende analysmetoder och tolkning av resultat.
NMKL Procedur nr 4. Validering av kemiska metoder, 2005.
Statistikk for anvendelse innen metodevalidering vil bli belyst og eksemplifisert. Bruk av statistikkverktøy og hvordan statistiske parametere blir rapportert vil bli vist. Foredraget vil vise hvordan bruk av forsøksdesign og statistikk for å bestemme robustheten til metoder kan gjøres.
Lean Six Sigma er en, for mange, ny verktøykasse med mange statistiske metoder som også kan benyttes inn mot analytiske metoder. Noen eksempler på dette ville bli gitt.
Måleresultatet ved en laboratoriebestemmelse er et estimat av verdien til analysevariabelen. Kvaliteten til estimatet er avhengig av usikkerheten som alltid er knyttet til bestemmelsen. I prinsippet er måleusikkerheten en egenskap til det enkelte måleresultat. Bestemmelse av måleusikkerheten for hvert enkelt måleresultat er vanligvis ikke nødvendig hvis måleresultatet kommer fra en kontrollert måleprosess. Måleusikkerheten vil derfor bli bestemt for et sett av lignende måleresultater. Man benytter da et sett av måleresultater som oppnås med en spesifikk måleprosedyre under kontrollerte betingelser. Måleusikkerheten anvendes på alle måleresultatene i settet, uavhengig av hvilken matriks prøven har, eller hvilken analytiker som har gjennomført bestemmelsen, forutsatt at målingen er gjennomført under et kvalitetssikringsprogram.
Generelt må tilfeldige og systematiske feil tas med i betraktning. Derfor er bestemmelse av usikkerhet basert på valideringsdata som representerer reproduserbarhet innen laboratoriet, samt metode- og laboratorie-bias. Det er svært vanlig å kvantifisere måleusikkerheten (ekspandert usikkerhet) ved intervallet som omfatter verdien til analysevariabelen med omtrent 95 % sannsynlighet.
Denne framgangsmåten er basert på de karakteristiske data vi får for en metode ved valideringen, samt de resultater vi får fra både intern og ekstern kontroll av metoden. Framgangsmåten er basert på følgende to publikasjoner: NORDTEST report TR 537, 2003, og Quantifying Uncertainty in Analytical Measurement (QUAM), EURACHEM/CITAC guide, 2000.
Det blir gitt en del eksempler på hvordan denne framgangsmåten kan brukes.
Data er ofte fremkommet som følge av kostbare eksperimenter og forsøk, og for mange FoU miljø kan disse betraktes som en viktig del at den intellektuelle kapital. Det å gjenfinne, etterprøve og bruke historiske data på tvers i et brukermiljø blir av denne grunn mer og mer etterspurt. Da reises det fort spørsmål om hva som egentlig er viktig å ta vare på. Rådata eller prosesserte data? Eller begge deler? Hva med beregninger som er gjort, skal de tas vare på? Hvordan skal komplekse samlinger av som såkalte flerveis datablokker håndteres? Bør det være revisjonskontroll på datahåndteringen? Skal brukerne ha mulighet for å slette data, eller endre navn på datafiler? Hva med kvalitetsnivået på spesifikasjonskrav... skal universiteter ha samme krav som farmasøytisk industri? Hva med optimal datalogistikk mellom databaser, instrumenter og brukere?
Det foregår i dag en prosess i noen bedrifter, universiteter og høyskoler hvor disse spørsmål diskuteres og hvor retningslinjer for å lagre, gjenfinne og gjenbruke originale forskningsdata trekkes opp.
MUST AS er et teknologiselskap med databaser som spesialområde. Foredraget reiser noen spørsmål som vi håper kan skape debatt. Videre viser vi under presentasjonen en kommersiell løsning på en database som er velegnet til å lagre, gjenfinne og gjenbruke originale forskningsdata.
Som et virkemiddel for å redusere menneskers eksponering for bromerte og klorerte persistente organiske miljøgifter er det i mange land krav til overvåkning av disse miljøgiftene i mat og fôr. Det er derfor behov for laboratorier verden over som kan bestemme disse miljøgiftene ved lave konsentrasjoner. Laboratoriene er ofte pålagt fra myndighetene å være akkrediterte i forhold til ISO standarder og må vise seg kompetente gjennom deltakelse i ringtester.
På Avdeling for Analytisk Kjemi, Divisjon for Miljømedisin, på Folkehelseinstituttet har vi siden 2000 organisert årlige internasjonale ringtester for persistente organiske miljøgifter i ulike matvarer. Dette for å kunne tilby et verktøy for kvalitetssikring av analyseresultater og for å kunne sammenlikne analysekvaliteten på verdensbasis.
Etter åtte år med erfaringer fra denne type ringtester har vi fått god oversikt over analysekvalitet og analyseusikkerhet på verdensbasis for ulike komponenter og typer matvarer.
Hvordan valideres en LIMS, og er det forskjell på dette kontra validering av andre systemer?
Hva har jeg lært av å være i et global LIMS prosjekt som har installert LIMS i tre fabrikker i tre land.
Resten kommer kanskje senere...
Fra 31.12.2008 er det krav om akkreditert prøvetaking (NS-EN ISO/IEC 17025:2005) i avløpsrenseanlegg fra alle avløpsrenseanlegg som mottar avløpsvann fra tettbebyggelser med samlet utslipp større enn eller lik 2000 pe til ferskvann, større eller lik 2000 pe til elvemunning eller større enn 10 000 pe til sjø, jamfør FOR-2004-06-01-931, om begrensning av forurensning (forurensningsforskriften) § 14-11.
Prøvetaking er et viktig ledd i prøvingsforløpet. Dersom det gjøres feil under prøvetakingen, vil denne feilen overføres til prøvingsresultatet. Ved akkreditering av prøvetaking er det viktig at alle prosesser i tilknytning til prøvetakingen beskrives i styringssystemet til den akkrediterte organisasjonen. Eksempler på slike prosesser kan være prøveuttak (primært og sekundært), transport, lagring og bearbeiding av prøvene. I enkelte tilfeller må det også avklares hva som skal være en del av prøvetakingen og hva som er prøvingsorganisasjonens ansvar. Når ulike organisasjoner gjennomfører prøvetaking og prøving, må det avklares hvem som har ansvaret for de ulike elementene i prøvetakingen.
En grunnleggende faktor ved prøving er at det skal etableres sporbarhet for den enkelte parameter. For mange typer prøvetaking er dette ikke praktisk mulig. Ved akkreditering av prøvetaking må det derfor stilles strengere krav for en del av de andre elementene i standarden. Dette gjelder for eksempel personellets kompetanse og entydighet i metodebeskrivelser.
Abstract mangler
Livsforsikring starter innenfra
OliVita er utviklet for å gi samme beskyttelse av hjerte og kar som en daglig porsjon feit fisk. Kliniske studier ved universitetet i Tromsø viser at olje fra fisk og sel mister mye av sin helseeffekt under rensing. Derfor er OliVita tilsatt kaldpresset oliven fra Rioja Alavesa.
Abstract mangler
Abstract mangler
Det kan være vanskelig å oversette næringsstoffanbefalingene til anbefalinger for et sunt kosthold. Derfor utarbeides nasjonale kostråd som omsetter næringsstoffanbefalingene til råd for inntak av vanlige matvarer og matvaregrupper. I tillegg til å bygge på næringsstoffanbefalingene vil disse kostrådene også bygge på matvarebasert ernæringsforskning som beskriver effekter som ikke kan tilskrives enkelte kjente næringsstoffer, men effekter av hele matvarer.
Nasjonalt råd for ernæring har i mange år derfor utarbeidet generelle kostråd. De gjeldende kostrådene for Norge er:
På bakgrunn av en betydelig utvikling innen ernæringsforskningen de siste årene er det et stort behov for å oppdatere og utdype disse kostrådene. Derfor utarbeides det nå nye "Norske Kostråd" som primært er rettet mot å redusere risiko for kroniske kostrelaterte sykdommer som overvekt og fedme, hjerte-karsykdommer, diabetes, kreft og osteoporose hos friske individer. De fleste kostrådene kan med fordel benyttes til individer som lider av disse sykdommer. Status for arbeidet med nye "Norske Kostråd", som forventes sluttført våren 2008, vil presenteres i foredraget.
Rådene bygger på en grundig vitenskapelig dokumentasjon som avklarer om det eksisterer en kausal sammenheng mellom eksponering og risiko for sykdom. Anbefalinger og råd bygger aldri på resultater fra en enkelt studie men på en total vurdering av mange forskjellige typer studier. Generelt legges det størst vekt på resultatene fra store randomiserte kontrollerte kliniske intervensjonsstudier. Resultater fra observasjonelle epidemiologiske studier og eksperimentelle studier som gir en biologisk plausibel forklaring for effektene som observeres er også av stor nytte.
Ernæringsforskning representerer i dag et av de mest aktive internasjonale medisinske forskningsområdene. Offisielle anbefalinger og kostråd bør derfor forankres og reflektere den til enhver tid etablerte status innen ernæringsforskningen. "Norske kostråd", som reflekterer dagens forskingsmessige status, vil oppdateres med jevne mellomrom når ny vitenskapelig dokumentasjon krever dette. "Norske kostråd" bør også gi en tydelig veiledning til matvareindustrien om hvilke produktutvikling som trengs for å gjøre kostholdet sunnere.
Mills har som visjon å begeistre forbrukerne og har gjennom mange år levert produkter som er blitt en selvfølgelig del av livet til mange nordmenn. Det er stadg større fokus i dag på helse og ernæring. Som næringsmiddelprodusent er Mills opptatt av hvordan produktene kan bidra positiv til gjøre Norge sunnere. Mills har stor kompetanse innenfor flere områder bl. annet emulgering av olje og fett. Som et ledd i det å kunne hjelpe forbrukere til å gjøre sunnere valg har Mills arbeidet innenfor flere områder for å kunne tilby stadig flere produkter med en sunn fettprofil. I dette innlegget ønsker Mills å redegjøre for hvorfor de har valgt å satse på slike produkter og hvordan ny teknologi kan gi økte muligheter. Vi har tatt utgangspunktet i lanseringen av Vita hjertego' ost med raps og solsikkeolje for å belyse dette.
Norsk næringsmiddelindustri sin framtidige konkurransekraft vil avhenge av innovasjonsevnen til de respektive selskaper. Ved å sette innovasjon og forskningsstrategier først vil langsiktige og betydelige muligheter kunne realiseres. Ensidig teknologi utvikling som "oppfinnelse søker marked" er ingen god løsning for framtiden. Innsikt, en god innovasjonskultur, samt system og styrke for å kunne kommersialisere idéer er alle nødvendige elementer for suksess.
TINE benytter "Strategisk innovasjon" som verktøy for å øke innovasjonsgraden. Teknikken er utviklet for å finne nye plattformer for vekst og da basert på nøkkelinnsikt. Vi benytter samme tenkning for å finne langsiktige forskningsutfordringer og mulige fremtidsinitiativ. Et nært samarbeid mellom TINE, Universitetsmiljøer og forskningsinstitusjoner er et viktig suksesskriterie for en slik forskningsbasert innovasjon. En felles utveksling av kunnskap for mulig produktutvikling og verdiskapning er målet.
Kunnskapsplattformer og verktøykasser utviklet som et resultat av et slikt samarbeid, er avgjørende for fremtidig verdiskapning. Nye produkter, konsepter og teknologier vil komme for blant annet å gi produkter med økt funksjonalitet, næringsverdi, sensorisk kvalitet og kvalitet generelt.
Meieribaserte innovasjoner basert på kjemisk kompetanse, vil bli vist gjennom eksempler på skreddersydde ingredienser fra meieriindustriens biprodukter med aktuelle applikasjonsmuligheter.
During the last 10 or 15 years the possibilities for separating and characterizing macromolecules have been greatly enhanced. Arguably, the single technique that has seen most progress is mass spectrometry. Two methods are especially suitable for introducing and ionizing large molecules, viz. matrix-assisted laser-desorption/ionization (MALDI) and electrospray ionization (ESI). MALDI, especially, affects our perception of polymers, to the extent that we should reconsider the distinction between oligomers and polymers. Mass-spectrometric techniques also confront us with questions as to what constitutes a "narrow" distribution.
There are two main limitations of polymer mass spectrometry. MS techniques are not equally applicable to all types of polymers and samples should be narrowly distributed (ideally in all respects, i.e. molecular weight, chemical composition, etc.). The former limitation implies that a great need remains for liquid-phase separations of macromolecules and the latter limitation indicates the need to combine such methods (on-line or off-line) with MS.
There have also been significant advances in chromatographic separation methods for separating polymers according to many different parameters. For example, liquid chromatography at the critical conditions (or simply "critical chromatography") allows separation according to functional groups and a completely new method, molecular-topology fractionation (MTF) provides separation according to the extent of branching of very large molecules. In either case such separations can best (if not only) be performed in combination with a separation according to molecular weight. This creates a need for comprehensive two-dimensional liquid chromatography (LC LC).
Many well-soluble synthetic polymers can now be adequately characterized. However, the complete characterization of natural macromolecules and chemically modified natural polymers still involves major challenges. In this lecture a number of major technological advances will be discussed and their practical application to real problems will be demonstrated.
An introduction to rheology and how to think rheometry is the starting point for this paper. From here on, we move to the viscoelastic test methods of polymers and polymer in mixtures and end products. Examples of how viscoelastic techniques can be used to deduce differences in polymer composition and structure will be given with emphasis on gelling systems. Different techniques to predict gel points are discussed and examples of gelling systems and there gel points are shown.
Inom polymerkemi har termisk analys en väldigt stark ställning, och detta har snarast förstärkts de senaste 10 åren. Föredraget kommer ta upp definitioner på de olika mätteknikerna och vilka applikationer som fungerar bäst på respektive teknik.
Till exempel Tg (glasomvandling) och smältpunktscenarior, vad påverkar dessa inom produktion och lagring. Kristallinitet och härdning är två andra områden som kommer att avhandlas.
Nyheter inom teknikerna såsom TOPEM®, UV-DSC och EGA (evolved gas analysis), där Mettler Toledo har utvecklat nya tillbehör, kommer att förklaras.
Gelatin from mammalian sources is one of the most versatile and utilised gelling agents in food applications due to its special texture, flavour release and "melt-in-mouth" perception.
Gelatin from marine sources has been considered to be an alternative to bovine and porcine gelatin, especially since the outbreak of the BSE ("mad cow disease") in the 80's. Fish gelatin may also be accepted as a food additive by Muslims, Jews, and Hindus, while mammalian gelatins are not accepted. The commercial interest in fish gelatin from cold water fish species has this far, however, been relatively low. This is due to sub-optimal physical properties compared to mammalian gelatin.
The idea has been to mix fish gelatin with marine polysaccharides, like kappa-carrageenan, to find mixtures with improved physical properties. Most systems of fish gelatin and kappa-carrageenan phase separate to give turbid solutions and gels. But there is also possible to mix fish gelatin and kappa-carrageenan in ratios that give transparent gels with improved physical properties. These systems may replace mammalian gelatin in some products in the food, cosmetic and pharmaceutical industry.
On request from Bechtel Inc., Department of Energy's prime contractor in the US it has been developed polymer particles that are going to be used for removal of Cs137 from radioactive waste. The technology to make these Cesium selective particles was invented by Prof. Arvid Berge and co-workers [1] at NTNU/SINTEF and is licensed from LEN (Leiv Eiriksson Nyskaping). At the Hanford site there is more than 200 million litres of radioactive liquid waste resulting from more than three decades of plutonium production. The chemical and radioactive waste is currently stored in 171 large underground tanks. As many as 68 tanks are leaking into the soil and contaminating the ground water. A huge waste treatment plant is built at the Hanford Site and will up to now be the largest and most complex environmental clean-up project. The Department of Energy owns and operates the 586 square mile Hanford Site in South- Eastern Washington State.
Compact monodisperse polymer particles of crosslinked resorcinol formaldehyde particles have been developed in close cooperation between SINTEF Materials and Chemistry and Microbeads AS. It has been done an extensive development work to increase the performance of the beads with respect to ion exchange properties and hydraulic properties. It has also been a challenge to scale up the process to a commercial scale and demonstrate that the process can be run in a second production facility. There has been carried out extensive testing with regard to chemical and hydraulic properties at Battelle Memorial Institute during the process development work. It has been, during the process development work at MBA, possible to make RF particles with increased capacity to bind ceisum compared to the first prototypes made and thereby increasing the performance of this material. The test results conclude that spherical resorcinol formaldehyde (RF) resin is found to be very effective in removing cesium and that the hydraulic performance during cycle testing is found to be superior to all other tested ion exchange materials [2,3]. The durability of the RF resin in the long term cycle testing is expected to give cost saving in actual operations when compared to other ion exchange resins.
References:
Proteoglycans (PGs) are the most highly negatively charged macromolecules in the human body. A major part of PGs are located in cartilage and connective tissue, where they have important structural functions. PGs are also located on cell surfaces, and in intracellular granules where they also have important structural functions. PGs consist of a core protein and covalently attached glycosaminoglycan (GAG) chains. The GAG chains may vary in structure. The most important are the heparin/heparan sulfate chains and the chondroitin/dermatan sulfate chains. Hyaluronic acid is not a PG, but an important GAG, present in macromolecular aggregates in connective tissue. Due to their negative charge the GAG part of PGs involve in interactions with a series of ligand with basic domains exposed. Important ligands are the protease inhibitor antithrombin, lipoprotein lipase, fibroblast growth factor, chymases, histamine and other biologically important molecules. PGs regulate storage, activities, transport and presentation of partner molecules, with important impact on processes such blood clotting, wound healing, kidney filtration, cancer metastasis. In relation to pathological conditions such as e.g. diabetes and atherosclerosis changes in PG expression affect the filtration functions of the kidneys, the retention of lipoproteins in the vasculature and the build up of atherosclerotic placques.
Polysaccharides are well-known in the pharmaceutical world, widely used as excipients in oral drug formulations, in woundcare, etc. However, their use in implantable or injectable medical devices and drug formulations are much more limited, which may be attributed to challenges with respect to purity, source control ("natural" polymers potentially being more difficult to document as compared to synthetic polymers), issues of regulatory approval, and more. The intention is to define and explain some basic concepts within the area of implantable/injectible medical devices and drug formulations, and to define and discuss some medical device/biotech applications in the borderline between R&D and commercialization where polysaccharides have key functional properties required for success.
Extracts from various fungi have been used in traditional eastern medicine for over 2000 years. The active component of these extracts was identified in the 1960s as 1,3- -glucan, which is found in the cell wall of many fungi. The -1,3-glucans have later been shown to be potent biological response modifiers (BRMs) that stimulate the immune system. This ability makes the -1,3-glucans potentially useful in a number of pharmaceutical applications. Biotec Pharmacon have been developing and selling -1,3-glucan products isolated from bakers yeast since 1990. A highly pure soluble beta-glucan product (SBG) is now being tested in a number of clinical trials both in wound healing and in cancer therapy in combination with monoclonal antibodies. The physical and chemical properties, as well as some aspects of the characterization, of this product will be presented.
Forsøk og eksperimentering er en essensiell del av alt forsknings- og utviklingsarbeid. Tidlig i vitenskapens historie ble det utviklet en forsøksmetode som går ut på å varierer en faktor, mens man holder alle andre forhold konstante. Tanken var at man da kunne finne den isolerte effekten av hver faktor. Det viste seg snart at denne metoden har mange svakheter, og det ble utviklet metoder for å gjøre forsøk på en mer effektiv og systematisk måte, ved å variere flere faktorer samtidig. Dette har blitt til et helt fagfelt (statistisk forsøksplanlegging) og jeg vil i denne presentasjonen vise hvordan enkel forsøksplanlegging fungerer og hvorfor det er den beste måten å gjøre forsøk på uansett fagfelt.
Faggruppens tilbud til skoleverket og begynnere i kjemometrisk analyse blir presentert. En virtuell sjokoladekakefabrikk/dataspill illustrerer daglig bruk av kjemi og matematikk i en bakeprosessoptimalisering. Målene med såkalt verdikjedeoptimalisering er å utnytte råvarer hensiktsmessig, redusere svinn og avfallsmengde, forkorte utviklingstid for nye produkter og i eksempelet her for å produsere sjokoladekaker med god nok kvalitet - 5 stjerners kaker. Basert på en enkel faktoriell forsøksplan og dataanalyse, styres fabrikkinnstillingene inntil målet om perfekte kaker er nådd.
Eksempler på bruk av forsøksplanlegging i ulike applikasjoner vil bli presentert, for å vise hvordan forsøksplanlegging kan brukes i praksis.
PCA er en projeksjonsmetode som brukes til å få oversikt over store mengder data, for eksempel for å se relasjonene mellom mange variable og prøver. Jeg vil i denne presentasjonen forklare prinsippene bak PCA med enkle eksempler, og vise hvilken informasjon man kan få ut ifra en PCA.
PCA er brukt til å utdype forståelsen av anareob biodegradering fra fire sett oljer, både fra laboratoriet og Trollfeltet. Biodegradering av olje i reservoaret er en kompleks prosess hvor bakterier selektivt bruker visse oljekomponenter som karbonkilde og dermed bryter dem ned. Tradisjonelt er biodegradering beskrevet ved hjelp av univariate forholdstall mellom utvalgte favorittforbindelser. Her vises det at analyse av hele kromatografiske profiler gir et vell av ny informasjon om kompleksiteten av prosessene som forklarer heterogenitetene i de undersøkte systemene.
Flere eksempler på bruk av PCA vil bli presentert, for å belyse hvordan metoden kan brukes ved ulike problemstillinger og datatyper.
Et datasett, på morgenen innsamlet, bestående av informasjon om bla. deltagerenes hårfagre og brillebruk brukes som eksempel på generell datautforskning (PCA), klassifisering (SIMCA) og kvantitativ modellering (PLS). Et sentralt punkt som å nyttiggjøre seg av på forhånd kjent (a-priori) informasjon blir belyst. Eksemplet vil gjøre deltagerne i stand til å gjennomføre egne analyser og tolkninger av tilsvarende data fra egen arbeidsplass, og etterhvert på data fra arbeidsplassens instrumentpark, eller andre datakilder.
Eksempelet er hentet fra Brakstad, Frode. Kjemometriske meotoder; Kjemi 1996 (5) mai: Kjemometri spesial s7-11
Til møtet foreligger en ny bok: "Syv bidrag til norsk kjemihistorie". Boken er utgitt ved Skolelaboratoriet i kjemi, UiO. Den inneholder syv artikler hvor artikkelen om Peder Farup: den første professor i uorganisk kjemi i Trondheim og den første professor i farmasøytisk kjemi i Oslo presenteres av Ragnar Bye som foredrag på dette møtet. Rolf Manne har bidratt med en artikkel om Saltsyding - en forsvunnet norsk kjemisk industri. Den handler om hvordan uorganiske salter ble fremstilt den gang disse var handelsprodukter.
De øvrige fem artiklene er skrevet av meg. En om kjemihistorien fra 1757 til 2017, og en om bergseminaret i Kongsberg som nylig feiret 250-års-jubileum. De andre tre handler om de tre første kjemiprofessorene ved Det Kongelige Frederiks Universitet i Christiania: Jac Keyser, Julius Thaulow og Adolph Strecker. Jeg har nylig også skrevet et hefte om den fjerde: Peter Waage - kjemiprofessoren fra Hidra. Den er også utgitt ved Skolelaboratoriet i kjemi, UiO.
Peder Farup ble født i Larvik i 1875 og hadde en uvanlig karriere. Han gikk først i lære i et apotek og ble apoteker i 1897, men ble sterkt interessert i kjemi og fikk innpass på universitetet i sin fritid. I 1902 tok han en doktorgrad hos Walter Nernst i Göttingen, foreleste på universitet i Christiania og tok artium i 1904. Han ble amanuensis ved det metallurgiske laboratorium og ble medlem av en komité som skulle som skulle utrede fremstilling av jern elektrokjemisk. Han ble engasjert i å utnytte ilmenitt (FeTiO3) forekomsten og deltok i utviklingen av en industriell prosess for fremstilling av titanhvitt (TiO2). I 1910 ble han den første professor i uorganisk kjemi ved NTH.
Åtte år senere sluttet han, og arbeidet deretter som konsulent i Kristiania for forskjellige industribedrifter. Han hadde i 1912 vært med på å vurdere den fremtidige utdanning av farmasøyter i Norge, og i 1925 ble han utnevnt som den første professor i farmasøytisk kjemi. Der sto han for planlegging og bygging av Farmasøytisk institutt på Blindern. Den sto ferdig tidlig i 1932. Da hadde han søkt avskjed og blitt apoteker på St. Hanshaugen apotek i Oslo. Han døde allerede i 1934.
De ca. 15 gamle norske jernverkene hadde sin største produksjon på 1840-tallet og produserte da årlig tilsammen mellom 9000 og 10000 tonn råjern. Etter 1885 var det bare ett av disse som fortsatt produserte råjern. I samme tid ble den svenske råjernproduksjonen mer enn tredoblet, fra ca. 130.000 til 450.000 tonn. I første halvdel av 1900-tallet resulterte dette i et politisk ønske om å re-etablere norsk råjernproduksjon med Norsk jernverk i Mo i Rana (1946-1988) som resultat. Norske historikere har gitt en rekke forklaringer til utviklingen på 1800-tallet. Disse vil bli vurdert i lyset av svenske jernverkshistoriske studier.
Foredraget bygger på artikler i tidsskriftet Fortuna utgitt av Næs jernverksmuseum, Tvedestrand:
Foredraget tar sikte på å redegjøre litt for etableringen og virksomheten i det som nå heter "De Kjemiske Samlinger". ved kjemisk Inst. UiO. Samlingen vil bestå av instrumenter, utstyr, bilder og bøker, fortrinnsvis slike som har en tilknytting til kjemisk institutt. Problemer som dukker opp når avgjørelsen "kast eller spar" skal tas vil bli belyst, og det vil bli forsøkt å finne frem til hvilke kriterier som det kan/bør legges vekt på når det gjelder å ta avgjørelsen om hva som bør gå inn i samlingen og hva som blir utelatt. Kriteriene vil bli belyst med eksempler.
Norges Tekniske Høgskole (NTH) ble opprettet i Trondheim i 1910 med 7 fagavdelinger: arkitekt, berg, bygg, elektroteknikk, kjemi, maskin, samt en avdeling for allmenne fag. Kjemiavdelingen hadde som oppgave å utdanne kjemikere for den voksende kjemiske industri, og ble ikke sett på som konkurrent til kjemiutdanningen ved Norges eneste universitet i Kristiania (Oslo). Universitetets kjemiske laboratorium tilbød kjemiundervisning for studenter på farmasi- og medisinstudiet, samt til realistene, som i hovedsak ble realfagslærere i skolen.
Det kjemiske laboratorium i Kristiania, som var bygget i 1875, hadde i løpet av 40 år blitt for lite og utilstrekkelig som arbeidsplass for lærere og studenter. Da planene for et nytt fysikk/kjemibygg på Blindern for alvor kom i gang på 1920-tallet, benyttet flere av professorene anledningen til å fremme forslag som ville gjøre laboratoriet egnet også for utdanningen av kjemikere.
I 1922 sendte Norsk Kjemisk Selskap en resolusjon som oppfordret til å utruste universitetets kjemilaboratorium nettopp til dette formålet. Resolusjonen utløste et skred av reaksjoner fra NTH, som holdt fast på at det var Høgskolen, og ikke universitetet, som skulle utdanne kjemikere for norsk industri. Kontroversen gir oss innblikk i forholdet mellom Universitetet og NTH på 1920-tallet og reiser noen interessante problemstillinger. Ett av dem er: Er det mulig å skille mellom ren og anvendt kjemi, og er det ønskelig at Norges to viktigste institusjoner for kjemiutdanning skal få ansvar for hver sin del?
With recent developments in theory and implementation, Hartree-Fock and Kohn-Sham self-consistent field methods can now be applied to large molecular systems, at a cost that scales linearly with system size. In the present talk, recent developments are reviewed, with emphasis on the optimization of the energy and the calculation of properties such as frequency-dependent polarizabilities and excitation energies for large molecules.
One of the main challenges for theoretical chemistry in the recent years concerns the ability to model, understand and predict the properties of large systems, comparable to those employed in experiments and applications. This is particularly relevant for nonlinear optical dyes, where the size of the molecule is increased in order to both match experimental and practical needs and to enhance the target property. It is therefore necessary for theoretical modelling to be able to deal with systems of the size of hundreds or even thousands of atoms explicitly. It is also crucial to include in the calculation the presence of the surrounding environment which can dramatically influence the property under investigation. Our recent developments towards the study of nonlinear optical properties of large size system in solution will be presented followed by the application of the method to third and fourth order nonlinear optical properties.
The microscopic theory if field-induced spin-mixing instabilities in antiferromagnetic molecular wheels CsFe_8 is proposed. The basic features of magnetic torque experiments (O. Waldmann et. al. Phys. Rev. Lett. 96, 027206 (2006)) are well explained by the interplay of three basic ingredients: spin-mixing vibroninc interaction with field-dependent vibronic constants, cooperative elastic interactions, and spin-mixing interactions independent from vibrations. The main contribution to spin mixing comes from second-order zero-field splitting mechanisms. At varaince with interpretations, we find that the observed anomalies are not associated with a phase transition.
A series of copper(III) b-octakis(trifluoromethyl)-meso-triarylcorrole complexes (with a DFT-optimized structure shown below for one of the complexes), recently synthesized in our laboratory, exhibit a host of extraordinary electronic properties. Thus, while electrochemical measurements reveal dramatically high redox potentials, the electronic absorption spectra (particularly, the Soret maxima) also exhibit a tremendous substituents dependence, as a function of the para-substituent on the meso-aryl groups, presumably implicating strong charge-transfer character of the relevant transitions. The 19F NMR spectra exhibit remarkably large 5JFF couplings, while DFT calculations reveal an extreme level of saddling. Unlike for many other copper corroles, NMR spectroscopy reveals no evidence of a thermally accessible paramagnetic excited state.
The discovery that aqueous Pt(II) salts are capable of activating hydrocarbon C-H bonds1 spurred the research on model complexes better suitable for careful study. We and others have performed mechanistic studies of aliphatic and aromatic C-H activation reactions at diimine-Pt(II) complexes of the type shown below.2,3
The diimine-Pt systems are amenable to fine-tuning of steric and electronic effects through variation of the substituents at the diimine ligand moiety.3 It is of considerable interest for experimentalists to understand how the reactivity is affected by the choice of substituents, and it is therefore important to recognize suitable substituent parameters or readily available molecular parameters that may correlate with the reactivity.
In this contribution, we describe the results of a systematic study that is aimed at establishing and hopefully understanding observed correlations between Hammett substituent parameters m p, IR CO stretching frequencies for diimine-Pt carbonyl complexes, 195Pt NMR chemical shifts, UV-Vis spectra, and DFT/B3LYP-computed molecular properties such as charge densities at Pt and the HOMO-LUMO gap.
Density functional theory was originally formulated for a density corresponding to a non-degenerate ground-state wavefunction. I will discuss how to obtain not only excitations energies, but also excited state properties such as dipole moments and nuclear gradients using DFT.