Focas equipadas com sensores mandam dados sobre salinidade e temperatura das águas mais gélidas e remotas do planeta. Fotos: Universidade Saint Andrews/Divulgação
"Mudanças nos oceanos polares têm ramificações globais e uma influência significativa sobre o clima e as condições de tempo", diz Lars Boehme, professor da Universidade de Saint Andrews, na Escócia. Ele é um dos pesquisadores envolvidos na coleta de dados através de sensores acoplados a focas, exploradoras contumazes das águas mais frias do planeta. Em mergulhos que podem atingir até 1.800 metros de profundidade, os animais geram dados sobre salinidade e temperatura das águas.
Esse esforço de pesquisa começou em 2004 e o seu resultado até agora é um banco de dados com 400 mil observações, um dos maiores do mundo. "A informação enviada a nós [via satélite] fornece detalhes do ambiente próximo a cada foca. É como se fosse um tweet", diz Boehme.
O projeto se chama Marine MammalsExploringthe Oceans Pole-to-pole (MEOP), em tradução livre, "Mamíferos marinhos explorando os oceanos de pólo a pólo". A melhor parte é que desde o início deste mês de junho os dados do projeto passaram a ser abertos a todos os interessados.
Uma foca-elefante fêmea com sensor.
Para instalar os sensores, as focas são capturadas e imobilizadas. Os sensores são montados na cabeça, mas não machucam os animais e caem sozinhos com o tempo.
Segundo Mike Fedak, professor de biologia da Saint Andrews, "A coleta feita pelos animais é uma inovação interessante na pesquisa de oceanos. Mas, talvez, a parte mais importante é que esses dados advindos de lugares remotos e inacessíveis nos permitem ter uma visão muito mais clara do estado em que estão os oceanos do mundo".
Os pesquisadores que tiveram acesso inicial aos dados já os usaram para produzir mais de 70 trabalhos científicos.
E enquanto os focas - apelido para jornalista iniciante - correm atrás de notícias, as focas passaram a se aventurar pela ciência.
Os dados recolhidos pelas focas podem ajudar os cientistas a compreender melhor as rápidas mudanças do ambiente antártico.
Com informações da Universidade de Saint Andrews
via Oeco
Mostrando postagens com marcador Oceonografia. Mostrar todas as postagens
Mostrando postagens com marcador Oceonografia. Mostrar todas as postagens
quarta-feira, 10 de junho de 2015
quinta-feira, 27 de setembro de 2012
Google Street View chega ao fundo do oceano
Austrália, Filipinas e Havaí foram fotografados
Olhar Digital
Reprodução/Olhar Digital
O Google levou o Street View para o fundo do oceano. A partir de agora, internautas poderão conferir, de casa, a vida marinha de seis recifes na Austrália, nas Filipinas e no Havaí.
A gigante de buscas fechou parceria com a Catlin Seaview Survey que, com ajuda de uma câmera submarina chamada SVII, capturou as imagens.
Foi criada uma galeria dentro do site World Wonders Project com as localizações disponíveis. Algumas imagens mostram, além de corais, cardumes de peixes, tartarugas, arraias, entre outros.
Clique aqui para conferir.
sexta-feira, 20 de abril de 2012
Falta de uma infraestrutura de dados espaciais limita pesquisa oceanográfica no Brasil, diz especialista
Segundo Jarbas Bonetti, da UFSC, falta de bases estruturadas de dados primários leva pesquisadores e estudantes a gastarem tempo demais em tarefas básicas, enfraquecendo impacto dos estudos (Foto: Eduardo Cesar)
Por Fábio de Castro
Agência FAPESP - A inexistência de uma infraestrutura de dados espaciais integrada, aberta e eatualizada está atrapalhando a pesquisa oceanográfica no Brasil, de acordo com o professor Jarbas Bonetti, do Laboratório de Oceanografia Costeira da Universidade Federal de Santa Catarina (UFSC). A análise foi feita durante o workshop internacional Marine Data Management, realizado na sede da FAPESP nos dias 11 e 12 de abril.
Segundo Bonetti, pela falta de acesso a uma plataforma estruturada, que disponibilize dados de referência com acesso aberto, muitos cientistas e alunos de pós-graduação acabam investindo grande parte de seu tempo de pesquisa na geração de informações básicas, limitando o alcance de seus estudos. De acordo com ele, é preciso criar repositórios unificados de dados.
“Muitos doutorandos gastam boa parte do seu tempo de pesquisa na estruturação de uma base primária de dados. Com frequência, esse esforço não seria necessário, porque os dados já existem, entretanto, estão dispersos, não são interoperáveis, ou não estão disponíveis de forma aberta. Assim, durante anos, o aluno se dedica a um esforço exaustivo e no fim, na fase de interpretação, sobra pouco tempo e energia para que seja possível contribuir de forma efetiva para o avanço do conhecimento por meio de análises mais sofisticadas”, disse Bonetti à Agência FAPESP.
Bonetti analisou o impacto da falta de uma base de dados estruturada a partir de sua própria experiência de pesquisa, em um pós-doutorado realizado no Instituto Francês de Pesquisa para a Exploração do Mar, em Brest (França), entre 2007 e 2008.
No estudo, Bonetti cruzou diversas bases de referência para elaborar um mapa aplicando o conceito de “paisagens marinhas”. Mais tarde, ao tentar replicar o trabalho no Brasil, esbarrou em sérias dificuldades.
“A instituição francesa tinha uma base de dados estruturada, por isso tive muita facilidade em chegar a resultados conclusivos e úteis para os gestores. A maior parte do meu esforço consistiu em desenvolver um arcabouço conceitual e propor uma alternativa metodológica para integrar diversos dados espaciais”, disse.
Dentro do conceito de paisagem marinha, segundo Bonetti, é possível partir de uma série de dados relativamente genéricos - como profundidade, temperatura de fundo, tipo de substrato, penetração da luz e intensidade de correntes - para compreender como a comunidade biológica se organiza em função das características ambientais que dão suporte ao estabelecimento dos diversos habitats.
“Com essa metodologia, a partir de dados relativamente simples, é possível obter um primeiro diagnóstico da estrutura da camada de fundo dos oceanos. Com isso, pode-se otimizar a escolha de locais sensíveis para gestão mais efetiva ou fazer pesquisas mais verticalizadas”, disse.
A partir dos dados básicos que estavam disponíveis na região do Parque Marinho do Iroise, , Bonetti construiu um modelo de paisagens marinhas em uma área do litoral da Bretanha, na França. “Quando terminei o pós-doutorado, fiquei empolgado com os resultados e tinha a perspectiva de replicar o estudo no Brasil, em uma área bastante importante do ponto de vista do sistema brasileiro de unidades de conservação, que é a Reserva Biológica Marinha do Arvoredo, em Santa Catarina”, disse.
No entanto, Bonetti logo percebeu a dificuldade para encontrar no Brasil esse tipo de dados em formato acessível. O cientista teve que se dedicar exaustivamente a levantar dados de referência.
“Dependi de muito trabalho braçal para gerar informações extremamente básicas. Dependi também da colaboração de colegas que cederam dados brutos, a partir do contato com ex-orientandos que tinham ainda disponíveis suas tabelas originais. Foi preciso aprender muitas coisas secundárias à investigação propriamente dita e gastar um bom tempo que poderia ter sido investido em análises mais profundas”, explicou.
Depois da experiência na França, Bonetti se convenceu de que a estruturação de dados primários em uma base comum e aberta permite que o pesquisador se dedique menos ao esforço de tratamento primário e possa investir mais tempo de pesquisa na análise e desenvolvimento de alternativas para se trabalhar com dados espaciais, buscando estabelecer relações e identificar como diferentes variáveis se comportam de maneira conjunta no espaço.
“Existem dados que têm um caráter mais preciso e específico. Mas me refiro a dados que são primários e fundamentais, como batimetria - os dados relacionados à profundidade”, afirmou. Segundo ele, não há uma base de dados batimétricos aberta disponível online. As cartas náuticas existentes, por exemplo, são disponibilizadas em formato semelhante ao de fotografias digitais e não em formato vetorial, que permitiria seu reprocessamento.
“Quando precisamos desses dados, temos que carregar as cartas náuticas no computador, georreferenciá-las, criar um mosaico e clicar com um mouse em cada um dos pixels que têm valor de profundidade. Isso transforma uma tarefa de dias em um trabalho de semanas ou meses”, afirmou.
As folhas topográficas em escala mais usadas nos projetos de pesquisa oceanográfica associada à plataforma continental interna, segundo Bonetti, baseiam-se em fotografias aéreas da década de 1960, com problemas de articulação - o que gera dificuldades para emendar as linhas de costa de uma carta em outra. Também são escassos os dados de altimetria nas áreas costeiras, fundamentais para quem trabalha na dinâmica de praias e avaliação da suscetibilidade costeira à subida do nível do mar.
“Eventualmente algumas prefeituras têm esses dados, ou alguns grupos fizeram levantamentos desse tipo, mas tudo isso está disperso e é de difícil acesso. Muito do esforço de coleta de dados está associado a projetos de pesquisa individuais. Esses dados acabam ficando muito restritos aos grupos que os produziram e o acesso depende de contatos pessoais”, afirmou.
Outro problema recorrente, segundo Bonetti, é a falta de metadados - as informações que explicam e contextualizam os dados. “Sem os metadados, o dado perde confiança e não pode ser articulado com outros dados semelhantes”, disse.
Bonetti sugere que, para contornar o problema, é fundamental que o poder público invista em programas de pesquisa que tenham continuidade e no qual os serviços de provisão de dados funcionem de maneira regular e eficiente. “Dados de referência como linha de costa, altimetria, batimetria, tipo de fundo e uso do solo precisam estar disponíveis para qualquer cientista ao alcance de um clique”, disse.
Segundo Bonetti, é fundamental também criar uma consciência de que o dado produzido por pesquisas financiadas com dinheiro público precisa ficar publicamente disponível.
“É preciso garantir a propriedade intelectual do dado, dar um tempo de carência para o pesquisador publicá-lo e é preciso estabelecer um padrão comum para que os dados sejam posteriormente comparáveis com outros. Mas o principal é criar uma cultura que veja o dado financiado pelo Estado e pelas agências públicas de fomento como um bem público”, disse.
Por Fábio de Castro
Agência FAPESP - A inexistência de uma infraestrutura de dados espaciais integrada, aberta e eatualizada está atrapalhando a pesquisa oceanográfica no Brasil, de acordo com o professor Jarbas Bonetti, do Laboratório de Oceanografia Costeira da Universidade Federal de Santa Catarina (UFSC). A análise foi feita durante o workshop internacional Marine Data Management, realizado na sede da FAPESP nos dias 11 e 12 de abril.
Segundo Bonetti, pela falta de acesso a uma plataforma estruturada, que disponibilize dados de referência com acesso aberto, muitos cientistas e alunos de pós-graduação acabam investindo grande parte de seu tempo de pesquisa na geração de informações básicas, limitando o alcance de seus estudos. De acordo com ele, é preciso criar repositórios unificados de dados.
“Muitos doutorandos gastam boa parte do seu tempo de pesquisa na estruturação de uma base primária de dados. Com frequência, esse esforço não seria necessário, porque os dados já existem, entretanto, estão dispersos, não são interoperáveis, ou não estão disponíveis de forma aberta. Assim, durante anos, o aluno se dedica a um esforço exaustivo e no fim, na fase de interpretação, sobra pouco tempo e energia para que seja possível contribuir de forma efetiva para o avanço do conhecimento por meio de análises mais sofisticadas”, disse Bonetti à Agência FAPESP.
Bonetti analisou o impacto da falta de uma base de dados estruturada a partir de sua própria experiência de pesquisa, em um pós-doutorado realizado no Instituto Francês de Pesquisa para a Exploração do Mar, em Brest (França), entre 2007 e 2008.
No estudo, Bonetti cruzou diversas bases de referência para elaborar um mapa aplicando o conceito de “paisagens marinhas”. Mais tarde, ao tentar replicar o trabalho no Brasil, esbarrou em sérias dificuldades.
“A instituição francesa tinha uma base de dados estruturada, por isso tive muita facilidade em chegar a resultados conclusivos e úteis para os gestores. A maior parte do meu esforço consistiu em desenvolver um arcabouço conceitual e propor uma alternativa metodológica para integrar diversos dados espaciais”, disse.
Dentro do conceito de paisagem marinha, segundo Bonetti, é possível partir de uma série de dados relativamente genéricos - como profundidade, temperatura de fundo, tipo de substrato, penetração da luz e intensidade de correntes - para compreender como a comunidade biológica se organiza em função das características ambientais que dão suporte ao estabelecimento dos diversos habitats.
“Com essa metodologia, a partir de dados relativamente simples, é possível obter um primeiro diagnóstico da estrutura da camada de fundo dos oceanos. Com isso, pode-se otimizar a escolha de locais sensíveis para gestão mais efetiva ou fazer pesquisas mais verticalizadas”, disse.
A partir dos dados básicos que estavam disponíveis na região do Parque Marinho do Iroise, , Bonetti construiu um modelo de paisagens marinhas em uma área do litoral da Bretanha, na França. “Quando terminei o pós-doutorado, fiquei empolgado com os resultados e tinha a perspectiva de replicar o estudo no Brasil, em uma área bastante importante do ponto de vista do sistema brasileiro de unidades de conservação, que é a Reserva Biológica Marinha do Arvoredo, em Santa Catarina”, disse.
No entanto, Bonetti logo percebeu a dificuldade para encontrar no Brasil esse tipo de dados em formato acessível. O cientista teve que se dedicar exaustivamente a levantar dados de referência.
“Dependi de muito trabalho braçal para gerar informações extremamente básicas. Dependi também da colaboração de colegas que cederam dados brutos, a partir do contato com ex-orientandos que tinham ainda disponíveis suas tabelas originais. Foi preciso aprender muitas coisas secundárias à investigação propriamente dita e gastar um bom tempo que poderia ter sido investido em análises mais profundas”, explicou.
Depois da experiência na França, Bonetti se convenceu de que a estruturação de dados primários em uma base comum e aberta permite que o pesquisador se dedique menos ao esforço de tratamento primário e possa investir mais tempo de pesquisa na análise e desenvolvimento de alternativas para se trabalhar com dados espaciais, buscando estabelecer relações e identificar como diferentes variáveis se comportam de maneira conjunta no espaço.
“Existem dados que têm um caráter mais preciso e específico. Mas me refiro a dados que são primários e fundamentais, como batimetria - os dados relacionados à profundidade”, afirmou. Segundo ele, não há uma base de dados batimétricos aberta disponível online. As cartas náuticas existentes, por exemplo, são disponibilizadas em formato semelhante ao de fotografias digitais e não em formato vetorial, que permitiria seu reprocessamento.
“Quando precisamos desses dados, temos que carregar as cartas náuticas no computador, georreferenciá-las, criar um mosaico e clicar com um mouse em cada um dos pixels que têm valor de profundidade. Isso transforma uma tarefa de dias em um trabalho de semanas ou meses”, afirmou.
As folhas topográficas em escala mais usadas nos projetos de pesquisa oceanográfica associada à plataforma continental interna, segundo Bonetti, baseiam-se em fotografias aéreas da década de 1960, com problemas de articulação - o que gera dificuldades para emendar as linhas de costa de uma carta em outra. Também são escassos os dados de altimetria nas áreas costeiras, fundamentais para quem trabalha na dinâmica de praias e avaliação da suscetibilidade costeira à subida do nível do mar.
“Eventualmente algumas prefeituras têm esses dados, ou alguns grupos fizeram levantamentos desse tipo, mas tudo isso está disperso e é de difícil acesso. Muito do esforço de coleta de dados está associado a projetos de pesquisa individuais. Esses dados acabam ficando muito restritos aos grupos que os produziram e o acesso depende de contatos pessoais”, afirmou.
Outro problema recorrente, segundo Bonetti, é a falta de metadados - as informações que explicam e contextualizam os dados. “Sem os metadados, o dado perde confiança e não pode ser articulado com outros dados semelhantes”, disse.
Bonetti sugere que, para contornar o problema, é fundamental que o poder público invista em programas de pesquisa que tenham continuidade e no qual os serviços de provisão de dados funcionem de maneira regular e eficiente. “Dados de referência como linha de costa, altimetria, batimetria, tipo de fundo e uso do solo precisam estar disponíveis para qualquer cientista ao alcance de um clique”, disse.
Segundo Bonetti, é fundamental também criar uma consciência de que o dado produzido por pesquisas financiadas com dinheiro público precisa ficar publicamente disponível.
“É preciso garantir a propriedade intelectual do dado, dar um tempo de carência para o pesquisador publicá-lo e é preciso estabelecer um padrão comum para que os dados sejam posteriormente comparáveis com outros. Mas o principal é criar uma cultura que veja o dado financiado pelo Estado e pelas agências públicas de fomento como um bem público”, disse.
quinta-feira, 23 de fevereiro de 2012
Google deve lançar versão aquática do Google Maps
Google Maps debaixo d'água
Uma versão aquática do Google Street View deve ser lançada em breve. Os usuários poderão “nadar” em volta da Grande Barreira de Coral, um dos patrimônios mundiais da Humanidade, que fica localizado na Austrália.
Pesquisadores e mergulhadores passaram meses tirando mais de 50 mil fotos de 360º graus para criarem o projeto chamado de “Catlin Seaview Survey”. Inicialmente as fotos poderão ser visualizadas somente no site da iniciativa e serão integradas ao Google Maps no futuro.
O âmbito do projeto é de registrar e revelar a composição dos corais, assim como conscientizar o usuário sobre as consequências que as mudanças climáticas e ambientais têm sobre os ecossistemas da região.
“O Catlin Seaview Survey é um conjunto de estudos que irá revelar ao público uma das últimas fronteiras na Terra: os oceanos”, afirmou Professor Ove Hoegh-Guldber da Universidade de Queensland.
As informações são do Daily Mail.
Redação Adnews
quinta-feira, 9 de junho de 2011
Google Earth agora permite explorar solo marítimo em 3D
Serviço utilizou banco de dados da Universidade de Columbia para incorporar o mapa do solo dos oceanos
iG São Paulo
Em parceria com a Universidade de Columbia (EUA), o Google adicionou imagens em 3D do solo marítimo ao serviço de navegação de mapas em 3D, o Google Earth. A partir de agora, os usuários podem "mergulhar" em regiões marítimas e ver morros, depressões no solo e até mesmo vulcões marítimos.
Os dados usados para fazer a modelagem em 3D são do banco de dados de topografia global da Universidade de Columbia. Os pesquisadores são responsáveis pela curadoria de imagens colhidas por mais de 500 navios em cruzeiro pelos oceanos.
Para navegar pelo solo marítimo no Google Earth, basta clicar sobre a superfície de qualquer parte do oceano. Neste caso, no entanto, as imagens estarão em baixa resolução. Para navegar pela imagens com alta resolução, basta baixar uma atualização do Google Earth e instalá-la em seu computador.
A nova camada do Google Earth foi lançada em comemoração ao Dia Internacional dos Oceanos, comemorado ontem (8 de junho).
iG São Paulo
Em parceria com a Universidade de Columbia (EUA), o Google adicionou imagens em 3D do solo marítimo ao serviço de navegação de mapas em 3D, o Google Earth. A partir de agora, os usuários podem "mergulhar" em regiões marítimas e ver morros, depressões no solo e até mesmo vulcões marítimos.
Os dados usados para fazer a modelagem em 3D são do banco de dados de topografia global da Universidade de Columbia. Os pesquisadores são responsáveis pela curadoria de imagens colhidas por mais de 500 navios em cruzeiro pelos oceanos.
Para navegar pelo solo marítimo no Google Earth, basta clicar sobre a superfície de qualquer parte do oceano. Neste caso, no entanto, as imagens estarão em baixa resolução. Para navegar pela imagens com alta resolução, basta baixar uma atualização do Google Earth e instalá-la em seu computador.
A nova camada do Google Earth foi lançada em comemoração ao Dia Internacional dos Oceanos, comemorado ontem (8 de junho).
quinta-feira, 20 de maio de 2010
Digitalização da maior biblioteca de Oceonografia do mundo
Cerca de 100 mil volumes da Scripps Institution of Oceanography Library, a maior biblioteca do mundo quando se fala em oceanografia, foram digitalizados e estão sendo preparadas para tornarem-se publicamente acessíveis, como parte de uma parceria entre o Google, a Universidade da Califórnia e a Biblioteca da UC San Diego.
Approximately 100,000 volumes from the Scripps Institution of Oceanography Library, the world’s largest oceanography library, have been digitized and are being made publically accessible as part of a partnership between Google, the University of California and the UC San Diego Libraries.
In 2008, UC San Diego became the first Southern California university to partner with Google in its efforts to digitize the holdings of the world’s most prominent libraries. Since then, approximately 300,000 volumes and other materials have been digitized from UCSD’s International Relations & Pacific Studies Library, the East Asian Language Collection and the Scripps Institution of Oceanography Library. The University of California was an early partner with Google, joining the Google Book Search Project in 2006 and agreeing to provide several million books from UC libraries for digitization. To date, more than 2 million books from UC libraries have been digitized.
“Partnering with Google in this global effort will lead to much greater scholarly and public access to the rich, diverse and, in many cases, rare, materials at the Scripps Institution of Oceanography Library,” said Brian E. C. Schottlaender, The Audrey Geisel University Librarian at UC San Diego. “Making this treasure trove of materials accessible to anyone with Internet access is a tremendous boon for scholars, students and interested members of the public.”
“I am very proud that another vital part of the Scripps-Google relationship has come to fruition,” said Tony Haymet, director of Scripps Institution of Oceanography at UC San Diego and UCSD vice chancellor for Marine Sciences. “Scripps Professor David Sandwell’s state-of-the-art bathymetry in ‘Ocean in Google Earth’ has been warmly received around the world, and I am sure this initiative will be too. The leadership of Brian Schottlaender and his staff in transforming our UCSD libraries into 21st century relevance is outstanding.”
According to Peter Brueggeman, director of the Scripps Institution of Oceanography Library, the materials digitized by Google include a wealth of books and journals, as well as numerous scientific expedition reports. The Scripps Library’s collections cover subjects ranging from oceanography, marine biology, marine geology, marine technology, climate science and geophysics, with extensive resources in ecology, zoology, fisheries and seismology.
“The Scripps Oceanography Library has been in existence for more than 100 years, so digitizing and providing access to this extensive book and journal collection helps to create a larger and more complete digital library of materials on the marine environment for searching and use, including older works dating back to the 18th century in full-text,” said Brueggeman. “While these books and other materials have long been available on our library shelves for individual use, Google Books’ in-depth cross-collection searching feature is definitely a game-changer for scholarly research. Through word and phrase searching, all books on specific topics can be identified and reviewed by scholars for their research needs. The Scripps Library has scientific journal runs going back to the early 1800s, and many have never been available in an electronic format. Google’s digitization of our journal backruns makes these older scholarly resources searchable for scholars and other researchers.”
The digitized materials include numerous research expedition reports documenting scientific observations and discoveries dating back to the 1800s. These works, which laid the foundation for modern oceanography, include a report on crustaceans (The Stalk-eyed Crustacea, Walter Faxon, 1895) collected on a U.S. expedition to central and South America and the Galapagos on the famous ship Albatross. The Albatross, a ship built by the U.S. government specifically for marine research, was a precursor to today’s U.S. oceanographic fleet of ships. Another report (The Fishes of the Swedish South Polar Expedition, Einar Lonnberg, 1905) documented the fishes collected on a famous Antarctic expedition, the Swedish South-Polar Expedition of 1901-1903 led by Otto Nordenskjold. Although the expedition was a great scientific success, resulting in the collection of many species new to science, their ship was crushed by ice, forcing the crew to build and live in a stone hut on an Antarctic island, subsisting on bird’s eggs and penguins, until they were rescued by a ship from Argentina. Other digitized works include: The Medusae, (1909) by the pioneering ocean researcher Henry Bigelow, the founding director of the Woods Hole Oceanographic Institution; The Echinoderm Fauna of Torres Strait: Its Composition and Origin (1921) by Harvard zoologist Hubert Lyman Clark; and The Land and Sea Mammals of Middle America and the West Indies by zoologist Daniel Giraud Elliot, one of the founders of the American Museum of Natural History in New York and the American Ornithologists’ Union.
“Digitization of the oceanographic expedition reports and older journals from the 1700s and 1800s is very exciting,” said Lisa Levin, a biological oceanographer at Scripps Institution of Oceanography. “Scientists in those days made some extremely astute observations; most have been lost to the general scientific community simply because the documents reporting them have not been accessible. Those early observations take on greater significance as environments change and species disappear in the anthropocene (due to climate change, pollution, habitat degradation, overfishing and species invasions). They may hold the key to understanding conditions and ecosystems of the past, which will help us in coming to grips with the future.”
According to Levin, who has utilized the Scripps Library’s expedition reports in her teaching, the digitization of the early documents also allows students and historians to better understand the evolution of modern ideas and understanding. “For example, I ask my deep-sea biology students at Scripps to track an idea, theme or taxonomic group from the start of the discipline to the present using the historical literature.”
The Scripps Institution of Oceanography Library, one of nine UC San Diego Libraries, supports the research and teaching efforts of Scripps Institution of Oceanography, the world’s preeminent center for ocean and earth science. Since its inception in 1903, Scripps Oceanography has led the global effort to understand the oceans, atmosphere and earth for the benefit of society and the environment. Scripps has played a key role in defining the science of oceanography; Scripps scientists have pioneered research in climate change, pollution, earthquakes, and marine life and conservation.
The Google project is helping UC San Diego and other university libraries to create digital access to thousands of texts and scholarly materials. Consequently, this helps to protect and preserve library collections for future generations and from catastrophic loss such as an earthquake or fire. As part of the agreement with Google, the University of California is receiving digital copies of all books and other materials scanned from the UC libraries. The university’s copies are stored in HathiTrust, a shared digital repository developed in partnership with other major research institutions across the country.
The digitized books from the Scripps Institution of Oceanography Library and other materials from the UCSD Libraries are accessible via the Google Book Search index. The search engine allows anyone to search the full text of books from libraries and publishing partners. For books in the public domain, readers will be able to view, browse and read the full texts online. For books protected by copyright, users can access basic background (such as the book's title and the author's name), a few lines of text related to their search and information about where they can borrow or buy a book.
Since the Google Book Search Project’s inception in 2004, Google has digitized more than 12 million books from libraries and publishing partners throughout the world. In addition to the University of California, other libraries at the University of Michigan, Harvard University, Stanford University and Oxford University are among those that have also partnered with Google. Google’s ultimate goal with the project is to make all of the knowledge contained within the world's books searchable and discoverable online.
The UC San Diego Libraries, ranked among the top 25 public academic research libraries in the nation, play an integral role in advancing and supporting the university's research, teaching, patient care and public service missions. The nine libraries that make up the UCSD Library system provide access to more than 7 million digital and print volumes, journals and multimedia materials to meet the knowledge demands of scholars, students and members of the public. Each day, more than 7,300 people stream through one of the university's nine libraries. The Libraries' vast resources and services are accessed more than 87,500 times each day via the UCSD Libraries' website.
Fonte: Newswire
Imagem: Jefferson Elementary School District
Approximately 100,000 volumes from the Scripps Institution of Oceanography Library, the world’s largest oceanography library, have been digitized and are being made publically accessible as part of a partnership between Google, the University of California and the UC San Diego Libraries.
In 2008, UC San Diego became the first Southern California university to partner with Google in its efforts to digitize the holdings of the world’s most prominent libraries. Since then, approximately 300,000 volumes and other materials have been digitized from UCSD’s International Relations & Pacific Studies Library, the East Asian Language Collection and the Scripps Institution of Oceanography Library. The University of California was an early partner with Google, joining the Google Book Search Project in 2006 and agreeing to provide several million books from UC libraries for digitization. To date, more than 2 million books from UC libraries have been digitized.
“Partnering with Google in this global effort will lead to much greater scholarly and public access to the rich, diverse and, in many cases, rare, materials at the Scripps Institution of Oceanography Library,” said Brian E. C. Schottlaender, The Audrey Geisel University Librarian at UC San Diego. “Making this treasure trove of materials accessible to anyone with Internet access is a tremendous boon for scholars, students and interested members of the public.”
“I am very proud that another vital part of the Scripps-Google relationship has come to fruition,” said Tony Haymet, director of Scripps Institution of Oceanography at UC San Diego and UCSD vice chancellor for Marine Sciences. “Scripps Professor David Sandwell’s state-of-the-art bathymetry in ‘Ocean in Google Earth’ has been warmly received around the world, and I am sure this initiative will be too. The leadership of Brian Schottlaender and his staff in transforming our UCSD libraries into 21st century relevance is outstanding.”
According to Peter Brueggeman, director of the Scripps Institution of Oceanography Library, the materials digitized by Google include a wealth of books and journals, as well as numerous scientific expedition reports. The Scripps Library’s collections cover subjects ranging from oceanography, marine biology, marine geology, marine technology, climate science and geophysics, with extensive resources in ecology, zoology, fisheries and seismology.
“The Scripps Oceanography Library has been in existence for more than 100 years, so digitizing and providing access to this extensive book and journal collection helps to create a larger and more complete digital library of materials on the marine environment for searching and use, including older works dating back to the 18th century in full-text,” said Brueggeman. “While these books and other materials have long been available on our library shelves for individual use, Google Books’ in-depth cross-collection searching feature is definitely a game-changer for scholarly research. Through word and phrase searching, all books on specific topics can be identified and reviewed by scholars for their research needs. The Scripps Library has scientific journal runs going back to the early 1800s, and many have never been available in an electronic format. Google’s digitization of our journal backruns makes these older scholarly resources searchable for scholars and other researchers.”
The digitized materials include numerous research expedition reports documenting scientific observations and discoveries dating back to the 1800s. These works, which laid the foundation for modern oceanography, include a report on crustaceans (The Stalk-eyed Crustacea, Walter Faxon, 1895) collected on a U.S. expedition to central and South America and the Galapagos on the famous ship Albatross. The Albatross, a ship built by the U.S. government specifically for marine research, was a precursor to today’s U.S. oceanographic fleet of ships. Another report (The Fishes of the Swedish South Polar Expedition, Einar Lonnberg, 1905) documented the fishes collected on a famous Antarctic expedition, the Swedish South-Polar Expedition of 1901-1903 led by Otto Nordenskjold. Although the expedition was a great scientific success, resulting in the collection of many species new to science, their ship was crushed by ice, forcing the crew to build and live in a stone hut on an Antarctic island, subsisting on bird’s eggs and penguins, until they were rescued by a ship from Argentina. Other digitized works include: The Medusae, (1909) by the pioneering ocean researcher Henry Bigelow, the founding director of the Woods Hole Oceanographic Institution; The Echinoderm Fauna of Torres Strait: Its Composition and Origin (1921) by Harvard zoologist Hubert Lyman Clark; and The Land and Sea Mammals of Middle America and the West Indies by zoologist Daniel Giraud Elliot, one of the founders of the American Museum of Natural History in New York and the American Ornithologists’ Union.
“Digitization of the oceanographic expedition reports and older journals from the 1700s and 1800s is very exciting,” said Lisa Levin, a biological oceanographer at Scripps Institution of Oceanography. “Scientists in those days made some extremely astute observations; most have been lost to the general scientific community simply because the documents reporting them have not been accessible. Those early observations take on greater significance as environments change and species disappear in the anthropocene (due to climate change, pollution, habitat degradation, overfishing and species invasions). They may hold the key to understanding conditions and ecosystems of the past, which will help us in coming to grips with the future.”
According to Levin, who has utilized the Scripps Library’s expedition reports in her teaching, the digitization of the early documents also allows students and historians to better understand the evolution of modern ideas and understanding. “For example, I ask my deep-sea biology students at Scripps to track an idea, theme or taxonomic group from the start of the discipline to the present using the historical literature.”
The Scripps Institution of Oceanography Library, one of nine UC San Diego Libraries, supports the research and teaching efforts of Scripps Institution of Oceanography, the world’s preeminent center for ocean and earth science. Since its inception in 1903, Scripps Oceanography has led the global effort to understand the oceans, atmosphere and earth for the benefit of society and the environment. Scripps has played a key role in defining the science of oceanography; Scripps scientists have pioneered research in climate change, pollution, earthquakes, and marine life and conservation.
The Google project is helping UC San Diego and other university libraries to create digital access to thousands of texts and scholarly materials. Consequently, this helps to protect and preserve library collections for future generations and from catastrophic loss such as an earthquake or fire. As part of the agreement with Google, the University of California is receiving digital copies of all books and other materials scanned from the UC libraries. The university’s copies are stored in HathiTrust, a shared digital repository developed in partnership with other major research institutions across the country.
The digitized books from the Scripps Institution of Oceanography Library and other materials from the UCSD Libraries are accessible via the Google Book Search index. The search engine allows anyone to search the full text of books from libraries and publishing partners. For books in the public domain, readers will be able to view, browse and read the full texts online. For books protected by copyright, users can access basic background (such as the book's title and the author's name), a few lines of text related to their search and information about where they can borrow or buy a book.
Since the Google Book Search Project’s inception in 2004, Google has digitized more than 12 million books from libraries and publishing partners throughout the world. In addition to the University of California, other libraries at the University of Michigan, Harvard University, Stanford University and Oxford University are among those that have also partnered with Google. Google’s ultimate goal with the project is to make all of the knowledge contained within the world's books searchable and discoverable online.
The UC San Diego Libraries, ranked among the top 25 public academic research libraries in the nation, play an integral role in advancing and supporting the university's research, teaching, patient care and public service missions. The nine libraries that make up the UCSD Library system provide access to more than 7 million digital and print volumes, journals and multimedia materials to meet the knowledge demands of scholars, students and members of the public. Each day, more than 7,300 people stream through one of the university's nine libraries. The Libraries' vast resources and services are accessed more than 87,500 times each day via the UCSD Libraries' website.
Fonte: Newswire
Imagem: Jefferson Elementary School District
Assinar:
Postagens (Atom)