Foredragene er nummerert etter faggruppe:
M - Makromolekyl- og kolloidkjemi
Den som er mer interessert i resultater enn i prosesser og prinsipper i proteomisk LC/MS, er muligens fornøyd med å vite at MS er betegnelsen på en masseselektiv detektor som befinner seg i enden av en kromatografisk kolonne. En fullbefaren kjemiker er selvfølgelig mer nysgjerrig, og kjenner godt til de prinsipper som gjelder for massespekrometerets virkemåte. I mitt foredrag vil jeg se nærmere på et par historiske forutsetninger for dagens biomolekylanalyser
Det er vanlig å vise til J. J. Thomson som massespektrometriens far. Hans parabolmassespekrograf fra 1907 markerer et viktig utviklingstrinn, men før det fantes vakuumrør og katodestråler. En kaotisk og fargerik samling av parallele og serielle utviklingslinjer ble knyttet sammen i pionertida for hundre år siden, og tilsynelatende uavhengige begrep, fenomener og oppfinnelser som fjernsyn, isotoper, lysreklame, datamaskiner og proteinanalyse spredte seg fra pionerene.
Et annet knippe med historiske kraftlinjer er knyttet til John Fenn som i 1984 fant ut at elektrospray var en glimrende måte å få biologiske makromolekyler til å bli ioner i gassfasen.
Begge mine eksempler har til hensikt å vise hvordan nødvendighet og tilfeldighet spiller sammen innen vitenskap og teknologi. En forutsetning for kreativitet er at det gis tid og rom til økonomisk uavhengig, grunnleggende vitenskap.
Analytisk massespektrometri benyttes i dag i utallige analyselaboratorier og forskningsmiljøer. Problemstillingene man benytter massespektrometri til er også svært forskjellige. Koblingen av kromatografi og massespektrometri er særlig anvendelig innen analyse av blandinger. Ulike prinsipper for masseseparasjon er utviklet delvis parallelt med andre teknologiske fagfelt, slik som innen dataprosessor teknologi, elektronikk-industri og programvareutvikling.
I løpet av de siste 50 år er det utviklet mange ulike masseanalysatorer. Disse masseanalysatorene opererer etter svært ulike prinsipper for masseseparasjon og kan ha forskjellige kvalitative egenskaper. De mest vanlige masseanalysatorer som i dag benyttes for kobling mot kromatografi (GC,LC,CE) er magnet sektorer, kvadrupoler, ionefeller og flyverør. I tillegg er det vanlig at ulike masseanalysatorene kobles sammen (hybrider) i ulike kombinasjoner med tanke på serielle MS operasjoner (MS (n)). De mest vanlige hybrider som i dag er tilgjengelige er kvadrupol-flyverør, kvadrupol-ionefelle. I tillegg er også kvadrupol-kvadrupol konfigurasjon svært utbredt i mange laboratorier. Ionefellen har også utviklet seg til å bli et svært viktig verktøy innen organisk og biologisk massespektrometri.
Gjennom foredraget vil det ble gitt eksempler fra noen masseanalysatorer med spesiell vekt på generelle fordeler og ulemper. Ulike måter å fremskaffe nyttige data (scan funksjoner) for MS (n) operasjoner blir også gjennomgått.
Væskekromatografi (LC) koblet til massespektrometri (MS) har utviklet seg til å bli et av de aller viktigste teknikker innen kjemisk analyse, spesielt med tanke på ioniske og polare forbindelser som ikke enkelt analyseres med GC-MS. I utgangspunktet er ikke koblingen mellom LC og MS helt rett frem i og med at LC er et væskebasert separasjonsprinsipp som utføres ved atmosfæretrykk, mens MS analyserer gassfase ioner i vakuum. Flere ulike ioniseringsprinsipper har blitt utviklet for å muliggjøre kombinasjonen LC-MS, hvorav "electrospray ionization" (ESI) og "atmospheric pressure chemical ionization" (APCI) er de helt klart mest anvendte. I tillegg kan nevnes "atmospheric pressure photoionization" (APPI), "sonic spray ionization" (SSI) og nanospray som benyttes i økende grad i spesielle tilfeller. De senere årene har også koblinger mellom desorpsjon/ioniserings-teknikker (DI), slik som "matrix assisted laser desorption/ionization" (MALDI) og "surface enhanced laser desorption/ionization" (SELDI), og LC blitt viet mye oppmerksomhet. Disse ulike ioniseringsteknikkene stiller ulike krav til instrumentering, prøve, løsemidler osv. og egner seg best for ulike typer forbindelser. Felles for disse ioniseringsteknikkene er at de bidrar til å øke applikasjonsområdet til LC-MS.
I dette foredraget vil ulike ionisering-teknikker i LC-MS bli presentert, deres fordeler og ulemper, samt for hvilke forbindelser de er best egnet. Noen generelle råd angående optimalisering vil også bli gitt.
Massespektrometri (MS) i kombinasjon med HPLC er et allsidig verktøy med et bredt anvendelsesområde innen analytisk kjemi.
I singel quadropol fragmenteres analytten i ionekilden ved økende spenning (CID, kollisjonsindusert dissosiasjon). Massen av moderion og fragmenter bestemmes ved at disse separeres i quadropolen. For kvantitative målinger anvendes vanligvis singel-ion recording-mode (SIR). Singel quadropol er enkel i bruk med god følsomhet, ekstraksjon er ofte nødvendig og analyttene bør være kromatografisk separert
Tandem quadropol MS består av to quadropoler og en kollisjonscelle. I en tandem quadropol brukes den første MS'en til å filtrere bort uønskede forbindelser. Analyttene fragmenteres i kollisjonscellen ved hjelp av kollisjonsspenning og argon gass. Massen av disse fragmentene måles i MS2. Dette kalles multiple reaction monitoring (MRM) og anvendes vanligvis ved kvantitativ analyse. Siden LC-MS tandem quadropol er et analyseinstrument med høy selektivitet vil instrumentet være mer anvendelig til å håndtere kompliserte problemstillinger enn en singel LC-MS. Dermed blir ikke kravet til prøveopparbeidelse og kromatografi (ressursbruk) like høyt som ved singel LC-MS. Dette kan bidra til en større fleksibilitet mellom ulike stoffer/applikasjoner samt raskere analyser. Høy selektivitet vil også redusere sjansen for falske positive resultater.
Divisjon for rettstoksikologi og rusmiddelforskning ved Nasjonalt folkehelseinstitutt anvender massespektrometri til analyser av rusmidler og medikamenter i biologiske prøver (blod, urin). I de senere år er det blitt satset på å lage nye metoder (screeening og bekreftelse) til singel LC-MS. Det har vist seg at for enkelte applikasjoner er ikke LC-singel quadropol godt nok m.h.p. selektivitet, derfor har vi i tillegg tatt i bruk tandem quadropol LC-MS.
Om man velger MS eller MS/MS er det bl.a avhengig av analytt, matriks, konsentrasjon av analytt, antall analytter i applikasjonen og tilgjengelige ressurser. Det bør gjøres en vurdering i hvert enkelt tilfelle.
Utviklingen innen dopinganalyse er preget av stadig nye misbruksmønstre som krever nye analyseteknikker for å avsløre bruken av forbudte stoffer. Seriøst antidopingarbeid begynte for mer enn 30 år siden. Den første tiden sto stimulerende midler som efedrin og amfetamin i fokus, men anabol-androgene steroider gjorde sitt inntog noen år senere. Disse stoffklassene ble etter hvert supplert med vanndrivende midler og beta-agonister, mens det samtidig utviklet seg trender mot bruk av kroppsegne dopingmidler som testosteron og peptidhormoner (f. eks erytropoietin og veksthormon). Som biologisk væske for påvisning av forbudte stoffer har urin spilt den dominerende rollen, og helt fra begynnelsen av antidopingarbeidet og kontrollvirksomheten på laboratoriet har massespektrometri vært sentral for å kvalitetssikre de analytiske resultatene. For bekreftelse av en positiv dopingprøve har massespektrometrisk deteksjon vært den eneste tillatte teknikken, med unntak av for peptidhormoner. Gasskromatografisk separasjon kombinert med massespektrometrisk deteksjon ble standarden for stimulerende midler og anabol-androgene steroider. Denne teknikken gir for en rekke anabol-androgene steroider en nedre identifikasjonsgrense på mindre enn 1 ng/ml i urin, forutsatt at en egnet derivatisering kan anvendes for å bedre steroidenes egenskaper for gasskromatografisk separasjon.
I den senere tid har kombinasjonen væskekromatografi-massespektrometri vist seg å være et meget viktig supplement for bestemmelse av forskjellige dopingmidler. Implementering av LC-MS/MS teknikker i rutineanalysen har vist seg å være kostnadseffektivt og tidsbesparende, ved at en direkte bestemmelse av fase-II metabolitter uten hydrolyse og derivatisering er mulig. I tillegg kan forbindelser som vanskelig lar seg gjøre å analysere med GC-MS inkluderes, dette gjelder særlig forbindelser der steroidstrukturen vanskeliggjør dannelsen av stabile derivater, som f. eks trenbolon, gestrinon og tetrahydrogestrinon (THG).
LC-MS som analyseinstrument har vært i rask vekst de siste årene, og stadig mer utbredt innen rutinelaboratorier i Norge. Argumentene for å investere i et dyrt LC-MS instrument fremfor tradisjonelle og billigere HPLC-UV instrumenter, har vært bedre følsomhet, kortere analysetid på instrumentet, samt enklere og raskere prøveopparbeidelse.
Ved innkjøp av et LC-MS instrument kan det være vanskelig å vite hva man skal vektlegge når man sammenlikner instrumenter og leverandører. Hvilken ytelse, brukervennlighet og robusthet kan man forvente? Samtidig er service og kompetanse hos leverandørene viktig å ta med i betraktningen. Bør du velge LC-MS eller LC-MS/MS
Hva kan man så forvente når en analysemetode overføres fra tradisjonell HPLC-UV til LC-MS. Hvilke deteksjonsgrenser kan man forvente. Hvor robust er LC-MS som analyseteknikk, og hva kan du forvente av stabilitet og presisjon.
Prøveopparbeidelsen er viktig i et rutinelaboratorium, ettersom den ofte er tidkrevende. Hvilken prøveopparbeidelse bør man velge for LC-MS, eller trenger man kanskje ikke prøveopparbeidelse for LC-MS ?
Fast fase ekstraksjon og væske-væske ekstraksjon er mest brukt som prøveopparbeidelse for HPLC, GC og GC-MS. Men ettersom LC-MS er et følsomt instrument som ofte foretrekker fortynning fremfor oppkonsentrerin, og robust når det gjelder renheten av prøvematrialet, bør metodutviklingen starte med mist mulig prøveopparbeidelse. Homogenisering, fortynning og filtrering for fjerning av partikler, kan være en god start på en prøveopparbeidelse for LC-MS.
Et problem med LC-MS, som leverandørene ikke informerer om er såkalte "matriks effekter". Disse matriks effektene oppstår i ionekilden til massespektrometeret, og fører til at analytten som skal bestemmes blir "diskriminert". Konsentrasjonen som blir målt vil da ofte være lavere enn den reelle konsentrasjonen til analytten.
Matriks-effekter og diksriminering er et problem innen LC-MS med stadig større fokus de siste årene, ettersom dette er et økende og relativt uforutsigbart problem. Matriks-effekten har trolig en sammenheng med konstruksjonen av ionekilden, og har leverandørene gjort nok innen videreutviklingen av ionekilden...?
Koblingen av gasskromatografi (GC) til massespektrometri (MS) har vært rutine i mange år. I væskekromatografi (LC), kapillærelektroforese (CE) og kapillærelektrokromatografi (CEC) har det imidlertid vært problematisk med en slik kobling fordi MS-instrumenter analyserer ioner i gassfase. Løsemidlene må derfor fjernes før analysen, og flere grensesnitt har blitt utviklet for effektivt å bringe analyttene i gassfase, slik som termospray (TSP) og partikkelstråle (PB). Imidlertid er det elektrospray ionisasjon (ESI) som har revolusjonert deteksjonsmetoden i LC, spesielt på grunn av den jevne overføringen av ioner i løsning til gassfase og videre til massespektrometeret. Med tanke på grad av fragmentering er ESI er den mykeste ioniseringsteknikken som er tilgjengelig.
Massespektrometre er massesensitive og signalet vil øke med økende mobilfasehastighet hvis ioner kontinuerlig blir introdusert til MS-en. Likevel har det blitt vist i flere studier at ionisering og ionesamplingseffektivitet i ESI øker omvendt med væskehastighet og motvirker den direkte avhengigheten av detektorsignalet på den absolutte massen. Konsekvensen av dette er at ESI-MS responsen ofte kan være konsentrasjonssensitiv og til og med vise en økt respons ved lave væskehastigheter. ESI er derfor en ideell ioniseringsteknikk for systemer i miniatyrisert væskekromatografi (µLC). Den reduserte kolonnestørrelsen i µLC medfører både forbedret massesensivitet og lavere væskehastighet i forhold til konvensjonell LC. Den lave mobilfasehastigheten i µLC, typisk på noen få mikroliter i minuttet, har gitt en effektiv tilkobling til MS. µLC har derfor vist seg å være meget betydningsfullt i koblingen med MS.
Proteomics har den siste tid blitt et attraktivt felt. Siden det jobbes med komplekse blandinger og små prøvemengder kreves det gode separasjons- / oppkonsentreringsteknikker og sensitive detektorer. Massespektrometri eventuelt koblet til HPLC gir derfor gode muligheter som verktøy i proteomics. Datamengden som genereres er ofte så stor og inneholder så mye informasjon at bruk av gode strategier og databaser blir nødvendig.
Etter en kort innføring i proteomics, struktur av peptider / proteiner og egenskapene til aminosyrer vil ulike temaer innen LC-MS og proteomics bli belyst:
With increasing financial and commercial pressure on laboratories it is becoming more and more important that the value of the laboratory to the organisation can be maximised. If an organisation is to increase the value it obtains from the laboratory it will not only need to improve the performance of the laboratory, it will need to be able to measure that improvement. In addition if a performance improvement exercise is undertaken it is important that it is aligned with the strategy of the organization as a whole to ensure that the right improvements are made.
This presentation will describe these pressures in more detail and explain the use of Kaplan and Norton's Balanced Scorecard within the laboratory to address the issues. The Balanced Scorecard is one of the most widely accepted and adopted business management techniques, and is a strategy management system that helps ensure individual objectives are aligned with the overall strategy of the organisation. One of the fundamental aspects of the Balanced Scorecard is the use of metrics to measure performance against agreed objectives.
An overview of the Balanced Scorecard methodology will be presented together with the benefits of using it within the laboratory environment. It will be described in the wider context of Laboratory Activity Management and its complimentary use with quality initiatives such as TQM, EFQM and Six Sigma will be described. The presentation will draw on a case study of the application of the Balanced Scorecard within a major UK water utility and its associated laboratories.
This presentation is an overview of the process of benchmarking and is intended to share the experiences of benchmarking work done by the DuPont La Porte, TX site. Our efforts covered external, internal and commercial labs. We were able to get considerable data. Evaluation of the data, as well as our notes gave us a glimpse of the "IDEAL" lab.
Covered in this presentation will be:
The audience will take away a perspective of issues encountered when performing benchmarking and the value of the final product.
Ved å sette ut analyseaktiviteter på oppdrag til et kontraktslaboratorium kan fokuset på bedriftens kjerneaktiviteter økes. For en produksjonsbedrift er bruken av analyseresultater langt viktigere enn produksjon av analyseresultater. Bruk av kontraktslaboratorier medfører finansielle fordeler, operasjonelle fordeler samt kvalitets og produktivitetsfordeler for oppdragsgiver.
Analyseoppdrag som settes ut på oppdrag kan deles inn i to hovedgrupperinger; taktiske og strategiske oppdrag. Taktisk utsetting av analyseoppdrag er en kortsiktig løsning og er oftest et resultat av store svingninger i produktetterspørsel. Dette kan for eksempel være faste sesongvariasjoner eller store uforutsigbare engangs ordrer. Taktisk utsetting av analyseoppdrag fjerner flaskehalssituasjoner eller behov for overbemanning i eget laboratorium. Strategisk utsetting av analyseoppdrag resulterer i langsiktige avtaler som oftest sikrer oppdragsgiver raskere analysesvar til en lavere kostnad. Tilgang til oppdaterte analysemetoder sikres uten at oppdragsgiver vil måtte investere i kapitalkrevende lokaler, utstyr og personalressurser. Profesjonelle kontraktslaboratorier innehar høy ekspertise og vil som en del av det totale servicetilbud veilede kundene i prøvetaking, valg av analysemetoder og fortolking av analysesvar.
Utsetting av analyseaktiviteter på oppdrag har tradisjonelt blitt møtt med motstand. Motstanden er størst i bedrifter som har egne driftslaboratorier. Ønsker om å ta i bruk ny analyseteknologi i bedriftsinterne laboratorier står imidlertid ofte ikke i samsvar med de kostnader som påløper dersom antall analyser ikke er tilstrekkelig høyt. Interne kostnadsberegninger underestimeres for følgende områder:
Likeledes overestimeres kostnader forbundet med prøveforsendelse til eksterne.
For modern pharmaceutical, chemical, biopharmaceutical and other science-based organizations improving the predictive quality of new products and shortening the time to commercialization has become the highest priority.
The challenges are managing the vast amount of raw data that is now generated and processed in today's "high throughput" laboratories. Transitioning to a completely electronic laboratory environment streamlines and controls the process of capturing, annotating and communicating data to collaborative teams so that information can be shared globally and a knowledge base built for the enterprise.
With better decisions being made faster, the total cycle time from early phase product research to commercialization can be greatly reduced.
In this session the following will be discussed:
Statistikk er et viktig verktøy innen kjemisk analyse, og det er helt nødvendig at alle som har med metodeutvikling og vurdering av analyseresultatene å gjøre har en god basiskunnskap i statistikk og kan anvende statistiske metoder på en riktig måte. I analytisk kjemi benyttes statistikken på flere stadier ved utvikling og bruk av metodene; det vil si ved utvikling, optimalisering, validering og kvalitetskontroll av analysemetodene samt for å vurdere de endelige analyseresultatene. Målet er hele tiden å oppdage feil, estimere forskjellige typer feil, redusere feil til et akseptabelt nivå og til slutt angi analyseresultatene med et usikkerhetsintervall med et tilhørende konfidensnivå.
I foredraget vil begreper og statistiske metoder som er viktig i kvantitativ analyse bli gjennomgått. Dette inkluderer nøyaktighet, presisjon, usikkerhet, konfidensintervall og statistiske tester (t-tester, F-test, Q-test, ANOVA). Det blir spesielt sett på anvendelse av statistiske metoder for validering av metoden for å vurdere eller estimere noen viktige metodeparametere. Validering av analysemetoden er nødvendig for å finne metodens yteevne for et spesielt formål (analytt og prøvemateriale).
Akkreditering er en offisiell anerkjennelse av at et test- eller kalibreringslaboratorium arbeider i henhold til et dokumentert kvalitetssystem og har demonstrert kompetanse til å utføre spesifikke analyser/målinger. Akkreditering kan innvilges ved at Norsk Akkreditering bedømmer laboratoriet mot den internasjonale standarden NS-EN ISO 17025. Bedømmingen foregår ved at ledende bedømmer vurderer kvalitetssystemet, mens teknisk bedømmer vurderer den tekniske aktiviteten på laboratoriet. Etter at akkreditering er innvilget vil laboratoriet bli fulgt opp årlig.
Dette betyr at en analyse utført akkreditert aksepteres av akkrediteringsorganene i land som har signert MLA (multilateral avtale) dvs har internasjonal og nasjonal aksept. Prosessen frem til innvilget akkreditering vil bli presentert som følger:
Det finnes etter hvert en del retningslinjer og litteratur om hvordan instrument- og datasystemkvalifiseringer bør gjøres, og for farmasøytisk industri har den såkalte GAMP4-guiden [1] blitt retningsgivende. Den såkalte 4Q modellen (DQ, IQ, OQ og PQ) for kvalifiseringsforløpet er vanlig å bruke i denne sammenhengen, og denne modellen vil bli forklart helt grunnleggende ut fra en livssyklusmodell. Bruken av brukerkravspesifikasjoner og risikovurderinger som gode verktøy for å definere hva som skal gjøres av tester i en kvalifisering gjennomgås også i foredraget. Det vil videre bli gjennomgått hvilke prosedyrer som bør finnes for å opprettholde en kvalifisert status på et instrument eller en programvare.
High-speed microwave synthesis has attracted a considerable amount of attention in recent years.[1] Since the first reports on the use of microwave heating to accelerate organic chemical transformations by the groups of Gedye and Giguere/Majetich in 1986, more than 2500 articles have been published in the area of microwave-assisted organic synthesis (MAOS). The initial slow uptake of the technology in the late 1980s and early 1990s has been attributed to its lack of controllability and reproducibility, coupled with a general lack of understanding of the basics of microwave dielectric heating. The risks associated with the flammability of organic solvents in a microwave field and the lack of available systems for adequate temperature and pressure controls were major concerns. Although most of the early pioneering experiments in MAOS were performed in domestic, sometimes modified, kitchen microwave ovens, the current trend clearly is to use dedicated instruments for chemical synthesis which have become available only in the last few years. Since the late 1990s the number of publications related to MAOS has therefore increased dramatically to a point where it might be assumed that, in a few years, most chemists will probably use microwave energy to heat chemical reactions on a laboratory scale. Not only is direct microwave heating able to reduce chemical reaction times from hours to minutes, but it is also known to reduce side reactions, increase yields and improve reproducibility. Therefore, many academic and industrial research groups are already using MAOS as a forefront technology for rapid reaction optimization, for the efficient synthesis of new chemical entities, or for discovering and probing new chemical reactivity.
This lecture will highlight contributions from our laboratory to the field of microwave-assisted organic synthesis. Special emphasis will be placed on solution-phase library generation strategies using automated sequential or parallel microwave irradiation techniques, microwave-assisted solid-phase synthesis and transformations involving polymer-bound reagents and scavengers, and the use of multicomponent reactions for the preparation of biologically active heterocycles. In addition, scale-up options for microwave-assisted reactions will also be discussed.
The importance of cell surface oligosaccharides and glycosaminoglycans in signal transduction processes of biomedical significance is now well established. A major impediment to the rapidly growing field of molecular glycobiology was the lack of pure, structurally defined carbohydrates and glycoconjugates. Described is the application of an automated solid-phase oligosaccharide synthesizer we developed recently [1] to all classes of glycoconjugates will be discussed
Based on the synthetic platform, a suite of tools for glycobiologists has been developed that includes carbohydrate arrays, fluorescently labeled oligosaccharides for imaging studies as well as affinity columns and other synthetic tools. [2]
Using the specific binding of certain bacteria to particular sugars was used to develop a visual detection system to test body fluids and water for the presence of pathogens including E. coli. This system is now the basis for applications in the medical field and in food handling. [3]
Described will be the development of carbohydrate based vaccines againnst a series of diseases on the example of an anti-toxin malaria vaccine that is currently in preclinical development. [4]
Finally, the use of microreaction systems constructed from etched silicon for rapid reaction optimization will be described using the glycosylation reaction as example. As many as 40 reactions can be carried out with 100 mg glycosylating reagent in just 4 hours. This new reaction system should find wide application in academic and industrial research laboratories from discovery to process chemistry and production. [5]
References
Abstract
Ultrasound is defined as sound of a frequency that is too high for the human ear to detect - i.e. it is inaudible. Nevertheless this "silent sound" has a large range of applications in science, medicine and industry. From its well known uses in medical scanning to the production of tiny particles for nanotechnology the study of the effects of ultrasound on materials - known as sonochemistry - is one of the broadest and most exciting fields in current research.
Traditionally the community of scientists involved with ultrasound has been divided broadly into those who use it as a measurement device with no effect on the medium (high frequency low power ultrasound e.g. non destructive evaluation) and those who use it to produce physical or chemical effects in a medium (higher power low frequency ultrasound e.g. sonochemistry). Even with two such apparently different groups of research applications of ultrasound however it is possible to find some crossovers of interest (e.g. the use ultrasound for the separation of particles).
Divisions also exist within the broad spectrum of those involved with power ultrasound. In the early days of sonochemistry this did not prove to be a major problem, the subject was new and the field was expanding within the chemistry community. However at a point some years ago Jean-Louis Luche made the very important observation that sonochemistry could be subdivided into reactions which were the result of "true" and "false" effects. Essentially these terms referred to real chemical effects induced by cavitation and those effects that could be mainly ascribed to the mechanical impact of bubble collapse. These mechanical effects have not held the interest of synthetic chemists as much as the true ones but nevertheless they are certainly important in areas such as processing.
Here in Europe there are research groups and industries with expertise in a wide range of activities involving the uses of power ultrasound in electrochemistry, chemical synthesis, materials extraction, nanotechnology, phase separation, and environmental protection. Outside of the confines of chemistry the worlds of engineering, food technology, surface treatment and medicine have all adopted a very positive attitude towards the development of power ultrasound.
The presentation will incorporate a series of demonstrations that illustrate the types of physical and chemical effects that form the basis of the science.
Ionic liquids (organic salts that are liquid at room temperature) have recently attracted growing interest as solvents for organic synthesis. This interest is likely to grow further now that two industrial processes have been announced in which they are used. Much of the interest in this area has been generated by the ionic liquids having no vapour pressure and so being classed as 'green' solvents, but there is a lot more to them than this.
The solute environment that is provided by ionic liquids is quite unlike any other that is available at room temperature. After all it is composed entirely of ions, rather than molecules. In principle, it can be manipulated to control the reactivity of species dissolved in it and so the outcomes of chemical processes. However to achieve this we need to quantify ionic liquid effects, so that a rational approach to the selection of both reactions and ionic liquids can be used.
My work is about gaining the insight necessary to be able to use ionic liquids to control chemical reactivity. We have characterised the ionic liquids' abilities to interact with solute species and investigated a number of reactions. In this talk I will focus on well understood SN2 processes to investigate the effect of the ionic liquids on their rates. We have determined under what circumstances the ionic liquids can be use to either increase or decrease nucleophilicities and how they do this.
This lecture features a diverse selection of recently introduced fluorous techniques unified by the theme of strategic synthesis and separation. Separation techniques include liquid-liquid extraction, solid-liquid extraction and chromatography over fluorous silica gel. Featured are fluorous monphasic, biphasic and triphasic reactions along with the use of fluorous reagents, reactants, scavengers and protecting groups in traditional, solution phase parallel and mixture synthesis. The ease of separation and product recovery make fluorous methods attractive for large scale chemistry while their speed and reliability are strong assets for small scale chemistry.
The result of a chemical derivatisation of starch or cellulose may be a rather complex mixture. Depending on the modification conditions the original structure may for example become degraded to various degrees. The product may contain anything from dissolved modified polymer chains to fractions of the original structure of the starch or cellulose and other over-molecular structures. This may represent component in the size range 50 - 500 nm, or in terms of molar mass 100 000 - 1 000 000 000 g/mole, i.e. a very high size range of a colloidal population may be present. For characterisation by analytical separation of such materials field-flow fractionation (FFF) is the only practical method because it is uniquely suited to size-fractionate materials in the range 5 - 1000 nm, and even beyond. When FFF is coupled on-line to a multiangle laser light scattering (MALS) detector the molar mass and the molecular radius of the components can be determined. This can even disguise the molecular shape of the components.
Polymermaterialer spiller en viktig rolle i vårt daglige liv. Vannrør, bildeler, plastemballasje og maling er bare noen få eksempler. Materialene oppfyller strenge krav mht. lav eller ingen utslipp av uønskete stoffer. Allikevel oppfatter mange av oss polymermaterialer som lite miljøvennlig. Årsaken er at levetiden av plastmaterialer ofte er dårlig tilpasset til deres bruksområdet. Plastposer som ligger i årevis i skogen er like uønsket som varmvannsrør som slår sprekker etter noen få år. Ved hjelp av riktig type og dosering av tilsetningsstoffer kan levetiden av et polymermateriale skreddersys til en bestemt anvendelse. Utvikling og testing av slike materialer innebærer mange utfordringer for polymeranalytikeren.
In an imaging ellipsometer a polarized beam is reflected from the surface under investigation and passes an analyzer and an optical lens which makes an image of the illuminated surface on a CCD camera [1]. Each pixel of the camera is an individual detector of the ellipsometer. The lateral resolution depends on the numerical aperture and, therefore, lateral resolutions down to the diffraction limit (1 µm) can be achieved. While rotating polarizer at fixed analyzer angle, Delta is simultaneously obtained for all pixels. In this way a thickness maps are recorded within 30 seconds. In the meantime, micro-structured and/or functionalized films and surfaces have found ever broader application areas - from surface chemistry to medical technology and biotech through semiconductors and optics.
In order to analyze these surfaces more powerful analysis methods were needed, not only for goal-oriented fundamental research, but to enable efficient product and process development. Different examples of the analysis of micro-structured surfaces are shown in this presentation. Furthermore, new applications with imaging Ellipsometry are shown, such as monitoring of binding reactions and characterization of quality parameters (shape, mass/thickness distribution, cleanness, homogeneity) of substrate and layers on biochips. Reactions are usually indicated by fluorescence from colored labels on the binding partners. By contrast imaging ellipsometry has some advantages, i.e. it is label free, cheap, and fast. We prove the reliability and comparability of those methods while we obtained the same amount of binding mass of oligonucleotides with ellipsometry and fluorescence intensity measurements on the same samples.
References
Static light scattering (SLS) and dynamic light scattering (DLS) are non-invasive techniques used to characterise macromolecules in solution and particles in suspension. In both techniques, a beam of monochromatic light is directed through a sample and the intensity of the light scattered by the molecules or particles is measured. SLS makes use of the time-averaged intensity of scattered light, from which the molecular weight and second virial coefficient can be determined. DLS, also known as quasi-elastic light scattering (QELS) or photon correlation spectroscopy (PCS), measures the time-dependent fluctuations in the intensity of scattered light that occur because the particles are undergoing Brownian motion. The velocity of this Brownian motion is measured and is called the translational diffusion coefficient D. This diffusion coefficient can be converted into a hydrodynamic diameter (DH) using the Stokes-Einstein equation.
The technique of dynamic light scattering is well suited to the measurement of the size of colloidal dispersions. Traditionally, measurements of large particle sizes or particles that are highly scattering would require high dilution of the sample in order to avoid multiple scattering effects. Conversely, measurement of very small and/or poorly scattering particles or samples that are very dilute are difficult unless high-powered lasers are used. These problems have been addressed in a light scattering instrument incorporating novel non-invasive backscatter optics (NIBS ). This novel optic arrangement maximises the detection of scattered light while maintaining signal quality.
In addition to the increased size and concentration range for DLS applications, the increased sensitivity obtained from this optical arrangement also allows for the determination of absolute molecular weight using static light scattering measurements. Accurate molecular weight measurements can be achieved at a single scattering angle for molecules which do not show any angular dependence in their scattering intensity. For example, the molecular weight of proteins up to several million Daltons can be accurately measured at a single angle.
Results of dynamic and static light scattering measurements from various polymer and nanoparticle applications will be presented which will illustrate the capabilities of the technology.
Recently, nanotechnology has placed a great emphasis on the development of "bottom-up" strategies for the self-assembly of nanoparticles as building blocks to construct larger functional devices and systems. First generation nanoparticles have been developed for fabricating different types of nanostructured materials. Second generation nanoparticles have been introduced with distinct core-shell structures for increasing their functionality. Next generation nanoparticles (3G) are now required for the construction of intelligent and smart nano-systems with high degree of multifunctionality to be used for advanced applications.
In this talk we shall briefly present some of our recent results on the design and fabrication of multifunctional nanoparticles together with some examples of biomedical applications.
Gas phase catalysis - with focus on hydrocarbon conversion and formation - covers nowadays a broad range of processes related to the upgrading of crude oil and natural gas. This includes, among others, fluid catalytic cracking (FCC), hydrocracking, dewaxing, aliphate alkylation, isomerisation, oligomerisation, transformation of aromatics, transalkylation, hydrodecyclisation as well as the conversion of methanol to hydrocarbons. All these conversions are catalysed by zeolites or related microporous materials, based both on the acid properties and shape-selective behaviour of this type of materials.
The first part of this presentation deals with the understanding of the chemistry of acid catalysis using zeolites or related microporous materials as well as the importance of the shape-selectivity of these materials.
The second part of this chapter covers the discussion of the present situation and the new developments related to the above mentioned petroleum refining and natural gas conversion processes using microporous materials, with focus on the new requirements due to the introduction of new fuel specifications world wide.
The application of atomic force microscopy will be exemplified by ultrastructure determination of compaction of semiflexible, biological polyanions, in particular DNA, an for the determination of the interaction strengths at the single-molecule level between alginate and the C-5-mannuronan epimerase AlgE4. Manufacturing, control of structure and characterization of nanoparticles are of interest within drug-delivery. Complexes between DNA (mainly circular) and chitosans represent a novel approach to gene therapy where the purpose is to obtain enhanced cellular uptake, intracellular transport and incorporation in the genome of new genes added as DNA fragments (linear or circular). The complexes between a model gene vector and the polycation chitosan, studied using AFM, were found to have sizes in the range 100-300 nm (hydrodynamic radius). The importance of the fine structure and chain length distribution of chitosan, on the fraction of the characteristic linear and toroidal morphologies of the nano-sized DNA/chitosan polyplexes was investigated. The elasticity of single alginate chains and their interaction with recombinantly produced enzymes that epimerizes alginate at the polymer level were determined using AFM. The specificity of the interaction was indicated in a competitive assay. The forced dissociation between alginate and epimerase AlgE4 shows a most probable unbinding force in the range 70 to 160 pN depending on the force loading rate. This was used as a basis for determination of the distance to the transition state of the unbinding path. The dissociation rate under zero loading compared with the turnover of single residues suggests a processive mode of action of the epimerase AlgE4 acting on mannuronan.
Chitin is one of the most abundant organic substances on our planet, probably second only to cellulose. This linear polysaccharide is composed of (1-4) linked 2-acetamido-2-deoxy- -D-glucopyranose units (GlcNAc; A-unit), and is insoluble in aqueous solvents. Chitin is used as raw material for production of chitosans, a family of water-soluble binary heteropolysaccharides, where the A-units in chitin have been de-N-acetylated to varying extents (0 to 60 % A-units), thereby introducing positively charged glucosamine units (D-unit) in the polymer. Chitosans can thus be regarded as an amphiphilic polymer composed of the charged D-units and the more hydrophobic and neutral A-units with different chemical, physical and biological properties (Vårum & Smidsrød, 2004). In this lecture some examples will be presented and discussed.
K.M. Vårum & O. Smidsrød (2004) In: Polysaccharides: Structural Diversity and Functional Versatility (ed.: S. Dumitriu), Chapter 26. In press.
By combining chromatographic separation and spectroscopic detection, huge data sets describing the nature of a sample may be created. Examples of such instrumentation are gas chromatography coupled with either mass spectroscopy (GC-MS) or infrared spectroscopy (GC-IR), and high pressure liquid chromatography with diode array detection (HPLC-DAD). The challenge is to find efficient and trustworthy methods to use when analysing such data sets. Because they were originally developed for other (and simpler) types of data, traditional multivariate methods are not optimal for modelling such data.
During the last 20 years or so, a lot of so-called curve resolution methods (not to be confused with curve fitting) have been developed for analysing such data sets. The aim of these methods is usually one or several of the items in the following list [1]: i) Finding the number of components in the sample; ii) Finding the spectrum of the components in the sample, thus enabling identification; iii) Quantifying the components in the sample. Using the language of linear algebra, this means solving the equation X = CST for the unknowns C (the chromatographic profiles) and S (the spectra). X is the data matrix describing the sample. Most of the curve resolution methods have been developed for samples containing relatively few chemical components, or for samples carefully prepared in a laboratory.
Samples encountered in real life, such as fuel exhaust samples, biological samples, and samples from the food industry, are usually very complex, containing several hundreds of chemical components. The task of resolving the measured data into individual contributions from each chemical component is then quite difficult. Many of the methods developed are time consuming and rely on user interaction to such an extent that they are impossible to use for this type of data. In addition, the problem of complex chromatographic and spectral background in the data needs to handled, as well as the presence of other instrumental artefacts.
A few years ago, a curve resolution technique designed to work with a minimum of user interaction was developed [2]. The method described in [2] (Gentle), was later refined so that it could handle complex data of the type described above in an automated fashion. It was also expanded to include automated methods for background correction and other necessary pre-treatments [3].
Recently, papers have been published where the results of the curve resolution is used in combination with traditional multivariate calibration analysis [4,5]. The cases referred to in the reference list deal with a mutagenicity study, but the principle and method is equally applicable to other fields of science. Currently, work is being carried out on a problem from the food industry.
Brief outline of the method i) Characterise a set of samples using a chromatographic technique with mass spectral detection; ii) Resolve the recorded data from each sample into contributions from each chemical component (chromatographic profiles and spectra); iii) Match resolved components across samples by using the mass spectra; iv) Integrate all the resolved chromatographic profiles and create a predictor matrix to be used in multivariate calibration; v) Measure an external response (e.g., mutagenicity, flavour, etc) for all the samples; vi) Use PLS regression to build a model explaining the external response as a function of the chromatographic areas; vii) Predict the value of the external response for new samples using the model from vi) and instrumental data of the new samples.
Data The method described above has been used on a data set consisting of more than 50 samples of organic extracts from fuel samples, in order to replace a biological test for mutagenicity with GC-MS data. Each sample consisted of more than 12000 spectra measured over 411 variables.
References
Spectroscopic techniques (UV, VIS, NIR, IR, fluorescence etc.) are increasingly used in food analysis, either for quality control or scientific purposes. The techniques are popular because they are rapid and can measure several key quality parameters. Lately, the opportunity to image these properties by the use of multi-spectral imaging has attracted attention. Local regions of high analyte concentrations and concentration gradients are often much more interesting than average concentrations. The approach enables investigation of distribution and propagation of biochemical properties, which is of significant value to the food science and development who struggles to understand complex food systems.
Three examples of multispectral imaging applied to foods are shown in this presentation. The first shows how imaging of autofluorescence can be used to map the degree of rancidity in ground chicken meat. Chemometric methods are used for image segmentation and prediction of areas of different degree of rancidity. The second example illustrates how one can image the intensity and propagation of light-induced oxidation in dairy products by use of autofluorescence spectroscopy. The latter method can greatly increase the efficiency of packing material development. The third example illustrates how classification in spectral images can be used to automatically detect parasites in fish fillets.
Abstract
Abstract
Problemstillinger innen bioinformatikk kjennetegnes ved et stort antall variable, for eksempel innen mikromatrise data, men ofte er antall fysiske prøver begrenset; typisk < 40. Med tusenvis av variable er det en fare for å finne tilfeldige signifikante korrelasjoner, og modellvalidering er viktig i denne sammenheng. Validering kan være data-drevet som med et uavhengig test-sett og/eller basert på kjent kunnskap om den aktuelle problemstilling. Eksempler på det siste er kjent funksjon for enkelte gener. Det finnes en rekke metoder for å velge ut noen variable blant mange med en viss forklaringsgrad, men ikke så mange alternativer for å eliminere alle ikke-signifikante variable, og beholde de gjenværende for optimal tolkning og prediksjon. Kryss-modell validering er et alternativ som rangerer variablene etter viktighet.
kjemometrien benyttes såkalte latent-variable metoder som reduserer det opprinnelige antall variable til en representasjon der de underliggende strukturer kommer frem. Programvare for interaktiv dataanalyse med mulighet for å markere kjente variable og visualisere disse inn i det underliggende rom vil bli demonstrert for to situasjoner:
Det vil også bli vist hvordan passifisering av variable gir innblikk i kausalitet og for å teste en forsknings-hypotese basert på bakgrunnskunnskap.
Proteomet er per definisjon alle proteiner som uttrykkes fra et genom og er således komplementært til andre omer, slik som genom, transkriptom og metabolom. I motsetning til genomet som er relativt stabilt over tid er de andre omene, inkludert proteomet dynamiske mengder. Ved proteom analyser studerer man øyeblikksbilder av hva som foregår i en celle eller vev, gjerne etter bestemte stimuli.
De vanligste metodene for å studere proteomet er to-dimensjonal gelelektroforese (2D) kombinert med billedbehandling og statistikk etterfulgt av masse spektrometri. Dette innebærer først at man ekstraherer proteiner fra det aktuelle vev/organisme/celler. Allerede her gjør man en seleksjon som gjør at man favoriserer noen proteiner og påvirker totalbildet man får av hvilke proteiner som er tilstede. Neste trinn er isoelektrisk fokusering av proteiner basert på proteinenes individuelle ladninger. Her gjør man ytterligere noen valg ved at man gjerne velger ut et begrenset pH område man ønsker å studere. Videre separeres og detekteres de fokuserte proteinene basert på størrelse på en vanlig SDS gel. Dette gir et komplekst mønster av proteiner spent ut over en pH gradient, men er på bakgrunn av tidligere nevnte begrensninger fremdeles bare en liten del av de proteinene man opprinnelig har i prøven sin.
Et annet aspekt man ikke skal glemme i denne ammenhengen er at sensitiviteten av metoden gjør at proteiner som er tilstede i små konsentrasjoner er under deteksjonsgrensen. Allikevel får man et godt inntrykk av de proteinene som utgjør hovedmassen av proteiner i prøven. Ved å sammenligne ange slike geler fra ulike prøver kan man ved hjelp av statistiske/bioinformatiske verktøy finne fram til proteiner som uttrykkes forskjellig. Disse proteinene kan plukkes fra gelene og identifiseres ved bruk av masse spektrometri og databasesøk.
Til tross for begrensningene er det også mange fordeler ved proteom analyser. I endel sammenhenger kan man finne proteiner som ikke har vært beskrevet eller proteiner man ikke forventet at skulle være involvert i den aktuelle problemstillingen. Dette kan igjen bidra til nye hypoteser og forklaring av årsakssammenhenger. En stor utfordring, ikke minst for bioinformatikerene, bli å koble sammen informasjon fra alle om analysene slik at man kan få et mer fullstendig bilde av de biologiske prosessene.
"Det humane genom prosjekt" ble startet i 1990 under ledelse av The National Center for Human Genome Research i USA med mål å kartlegge hele det humane genomet. Kartlegging av genomet vil si å identifisere posisjonen, organisering, og DNA- sekvensen til hvert gen. Funksjonell genomikk tar sikte på å utforske funksjonen til genomet, dvs. rollen til hvert gen. Det er i dag anslått til å være rundt 30000 gener som utgjor det humane genomet.
Teknikker basert på DNA mikroarray har i dag gjort det mulig å studere genaktiviteten til nesten det hele genomet på ett enkelt chip på en storrelse på 2.5 cm x 2.5 cm. Dette har gitt biologene muligheten til å studere aktiviteten til forskjellige gener i kartlegging av ulike sykdommer som inkluderer kreft, og alzheimer, for å nevne noen.
Bioinformatikk er et tverrfaglig forskningsfelt der matematikk, statistikk og informatikk anvendes til å analysere data som er produsert av eksperimentelt arbeid innen biokjemi, cellebiologi og genetikk. Et nært samarbeid mellom biologene og data- analytikerene er av helt avgjorende betydning for å kunne forstå de komplekse biologiske prosessene som gir opphav til forskjellige sykdommer.
Denne presentasjon tar sikte på a gi en kort innforing i funksjonell genomikk; genekspresjon og dataanalyse av DNA mikroarrays. Presentasjonen vil ta utgangspunkt i bruk av genekspresjonsanalyse til diagnose av bryst-kreft.
Oppdatert 31.8.2004