JoVE Logo

Entrar

É necessária uma assinatura da JoVE para visualizar este conteúdo. Faça login ou comece sua avaliação gratuita.

Neste Artigo

  • Resumo
  • Resumo
  • Introdução
  • Protocolo
  • Resultados
  • Discussão
  • Divulgações
  • Agradecimentos
  • Materiais
  • Referências
  • Reimpressões e Permissões

Resumo

Muitos pesquisadores geram dados "de tamanho médio", de baixa velocidade e multidimensionais, que podem ser gerenciados de forma mais eficiente com bancos de dados em vez de planilhas. Aqui fornecemos uma visão conceitual dos bancos de dados, incluindo a visualização de dados multidimensionais, a vinculação de tabelas em estruturas de banco de dados relacionais, o mapeamento de pipelines de dados semiautomatizados e o uso do banco de dados para elucidar o significado dos dados.

Resumo

A ciência depende de conjuntos de dados cada vez mais complexos para o progresso, mas os métodos comuns de gerenciamento de dados, como programas de planilhas, são inadequados para a crescente escala e complexidade dessas informações. Embora os sistemas de gerenciamento de banco de dados tenham o potencial de corrigir esses problemas, eles não são comumente utilizados fora dos campos de negócios e informática. No entanto, muitos laboratórios de pesquisa já geram dados multidimensionais de "tamanho médio", de baixa velocidade que poderiam se beneficiar muito da implementação de sistemas semelhantes. Neste artigo, fornecemos uma visão conceitual explicando como os bancos de dados funcionam e as vantagens que eles fornecem em aplicações de engenharia de tecidos. Os dados estruturais do fibroblasto dos indivíduos com uma mutação do Laminado A/C foram usados para ilustrar exemplos dentro de um contexto experimental específico. Exemplos incluem visualizar dados multidimensionais, vincular tabelas em uma estrutura de banco de dados relacional, mapear um pipeline de dados semiautomatizado para converter dados brutos em formatos estruturados e explicar a sintaxe subjacente de uma consulta. Os resultados da análise dos dados foram usados para criar parcelas de vários arranjos e significado foi demonstrado na organização celular em ambientes alinhados entre o controle positivo da progeria Hutchinson-Gilford, uma laminopatia bem conhecida, e todos os outros grupos experimentais. Em comparação com planilhas, os métodos de banco de dados foram extremamente eficientes em termos de tempo, simples de usar uma vez configurados, permitidos para acesso imediato aos locais de arquivos originais e maior rigor de dados. Em resposta à ênfase dos Institutos Nacionais de Saúde (NIH) no rigor experimental, é provável que muitos campos científicos adotem eventualmente bases de dados como prática comum devido à sua forte capacidade de organizar eficazmente dados complexos.

Introdução

Em uma época em que o progresso científico é fortemente impulsionado pela tecnologia, lidar com grandes quantidades de dados tornou-se uma faceta integrante da pesquisa em todas as disciplinas. O surgimento de novos campos, como biologia computacional e genômica, ressalta a crítica a utilização proativa da tecnologia. Estas tendências são certas continuar devido à lei de Moore e ao progresso constante ganhado dos avanços tecnológicos1,2. Uma consequência, no entanto, é o aumento das quantidades de dados gerados que excedem as capacidades dos métodos de organização anteriormente viáveis. Embora a maioria dos laboratórios acadêmicos tenha recursos computacionais suficientes para lidar com conjuntos de dados complexos, muitos grupos não possuem a experiência técnica necessária para construir sistemas personalizados adequados para o desenvolvimento de necessidades3. Ter as habilidades para gerenciar e atualizar esses conjuntos de dados continua a ser fundamental para um fluxo de trabalho e saída eficientes. Preencher a lacuna entre dados e conhecimentos é importante para lidar, reatualizar e analisar de forma eficiente um amplo espectro de dados multifacetados.

A escalabilidade é uma consideração essencial ao lidar com grandes conjuntos de dados. Big data, por exemplo, é uma área florescente de pesquisa que envolve a revelação de novos insights de processamento de dados caracterizados por grandes volumes, grande heterogeneidade e altas taxas de geração, como áudio e vídeo4,5. O uso de métodos automatizados de organização e análise é obrigatório para que esse campo manuseie adequadamente torrentes de dados. Muitos termos técnicos usados em big data não são claramente definidos, no entanto, e podem ser confusos; por exemplo, os dados de "alta velocidade" são frequentemente associados a milhões de novas entradas por dia, enquanto os dados de "baixa velocidade" podem ser apenas centenas de entradas por dia, como em um ambiente de laboratório acadêmico. Embora existam muitas descobertas interessantes ainda a serem descobertas usando big data, a maioria dos laboratórios acadêmicos não requer o escopo, o poder e a complexidade de tais métodos para abordar suas próprias questões científicas5. Embora seja inquestionável que os dados científicos se aumentem cada vez mais complexos com o tempo6,muitos cientistas continuam a usar métodos de organização que não atendem mais às suas necessidades de dados em expansão. Por exemplo, programas convenientes de planilhas são frequentemente usados para organizar dados científicos, mas à custa de serem incaláveis, propensos a erros e ineficientes de tempo a longo prazo7,8. Por outro lado, os bancos de dados são uma solução eficaz para o problema, pois são escaláveis, relativamente baratos e fáceis de usar no manuseio de conjuntos de dados variados de projetos em andamento.

Preocupações imediatas que surgem quando se considera schemas da organização de dados são custo, acessibilidade e investimento de tempo para treinamento e uso. Frequentemente usados em configurações de negócios, os programas de banco de dados são mais econômicos, sendo relativamente baratos ou gratuitos, do que o financiamento necessário para suportar o uso de sistemas de big data. Na verdade, existe uma variedade de software de código aberto e comercialmente disponível para a criação e manutenção de bancos de dados, como Oracle Database, MySQL e Microsoft (MS) Access9. Muitos investigadores também seriam encorajados a saber que vários pacotes académicos do MS Office vêm com o MS Access incluído, minimizando ainda mais as considerações de custos. Além disso, quase todos os desenvolvedores fornecem documentação extensa on-line e há uma infinidade de recursos on-line gratuitos, como Codecademy, W3Schools e SQLBolt para ajudar os pesquisadores a entender e utilizar linguagem consultada estruturada (SQL)10,11,12. Como qualquer linguagem de programação, aprender a usar bancos de dados e código usando SQL leva tempo para dominar, mas com os amplos recursos disponíveis, o processo é simples e vale a pena o esforço investido.

Os bancos de dados podem ser ferramentas poderosas para aumentar a acessibilidade de dados e a facilidade de agregação, mas é importante discernir quais dados mais se beneficiariam de um maior controle da organização. Multidimensionalidade refere-se ao número de condições que uma medição pode ser agrupada contra, e bancos de dados são mais poderosos ao gerenciar muitas condições diferentes13. Por outro lado, a informação com baixa dimensionalidade é mais simples de lidar com o uso de um programa de planilha; por exemplo, um conjunto de dados contendo anos e um valor para cada ano tem apenas um possível agrupamento (medições contra anos). Dados de alta dimensão, como de configurações clínicas, exigiriam um grande grau de organização manual para manter efetivamente, um processo tedioso e propenso a erros além do escopo dos programas de planilha13. Os bancos de dados não relacionais (NoSQL) também cumprem uma variedade de funções, principalmente em aplicativos onde os dados não se organizam bem em linhas e colunas14. Além de serem frequentemente de código aberto, esses esquemas organizacionais incluem associações gráficas, dados de séries de tempo ou dados baseados em documentos. NoSQL se destaca em escalabilidade melhor do que SQL, mas não pode criar consultas complexas, de modo bancos de dados relacionais são melhores em situações que exigem consistência, padronização e dados em larga escala pouco frequentes muda15. Os bancos de dados são os melhores em agrupar e reatualizar efetivamente os dados para a grande variedade de conformações muitas vezes necessárias em ambientes científicos13,16.

A principal intenção deste trabalho, portanto, é informar a comunidade científica sobre o potencial dos bancos de dados como sistemas escaláveis de gerenciamento de dados para dados de "tamanho médio", de baixa velocidade, bem como fornecer um modelo geral usando exemplos específicos de experimentos de linha celular de origem do paciente. Outras aplicações semelhantes incluem dados geoespaciais de leitos de rios, questionários de estudos clínicos longitudinais e condições de crescimento microbiana na mídia de crescimento17,18,19. Este trabalho destaca considerações comuns e utilidade da construção de um banco de dados juntamente com um pipeline de dados necessário para converter dados brutos em formatos estruturados. Os conceitos básicos de interfaces de banco de dados e codificação para bancos de dados em SQL são fornecidos e ilustrados com exemplos para permitir que outros obtenham o conhecimento aplicável à construção de estruturas básicas. Finalmente, um conjunto de dados experimentais de amostra demonstra a facilidade e eficácia dos bancos de dados para agregar dados multifacetados de várias maneiras. Essas informações fornecem contexto, comentários e modelos para ajudar colegas cientistas no caminho para a implementação de bancos de dados para suas próprias necessidades experimentais.

Para fins de criação de um banco de dados escalável em um ambiente de laboratório de pesquisa, dados de experimentos usando células fibroblastos humanas foram coletados nos últimos três anos. O foco principal deste protocolo é informar sobre a organização do software de computador para permitir que o usuário agregue, atualize e gerencie dados da maneira mais econômica e eficiente quanto ao tempo possível, mas os métodos experimentais relevantes também são fornecidos para Contexto.

Configuração experimental
O protocolo experimental para a preparação de amostras foi descrito anteriormente20,21,e é apresentado brevemente aqui. As construções foram preparadas por revestimentos retangulares de revestimento giratório com uma mistura 10:1 de polidimitilsiloxano (PDMS) e agente de cura, aplicando então 0,05 mg/mL fibronectina, em linhas desorganizadas (isotrópicas) ou 20 μm com arranjos micropadronizados de 5 μm gap (linhas). As células fibroblastas foram semeadas na passagem 7 (ou passagem 16 para controles positivos) para os lábios em densidades ideais e deixadas para crescer por 48 h, com a mídia sendo alterada após 24 h. As células foram então fixadas usando a solução de paraformaldeído (PFA) de 4% e surfactante nonionic de 0,0005%, seguida dos lábios sendo imunossmanizadas para núcleos celulares (4',6'-diaminodino-2-fenilodole [DAPI]), actina (Alexa Fluor 488 phalloidin) e fibronecina (fibronecina policlonco-humano). Uma mancha secundária para fibronectina usando anticorpos IgG anti-coelho de cabra (Alexa Fluor 750 cabra anti-coelho) foi aplicada e agente de preservação foi montado em todos os coverslips para evitar o desbotamento fluorescente. Esmalte foi usado para selar coverslips em lâminas de microscópio, em seguida, deixou para secar por 24 h.

As imagens de fluorescência foram obtidas conforme descrito anteriormente20 usando um objetivo de imersão de óleo 40x juntamente com uma câmera de dispositivo acoplado à carga digital (CCD) montada em um microscópio motorizado invertido. Dez campos de visão selecionados aleatoriamente foram visualizados para cada deslizamento de cobertura em ampliação 40x, correspondendo a uma resolução de 6,22 pixels/μm. Códigos personalizados foram usados para quantificar diferentes variáveis das imagens que descrevem os núcleos, filamentos de actina e fibronectina; Os valores correspondentes, bem como os parâmetros de organização e geometria, foram automaticamente salvos em arquivos de dados.

Linhas celulares
Documentação mais extensa em todas as linhas de células de dados de amostra pode ser encontrada em publicações anteriores20. Para descrever brevemente, a coleta de dados foi aprovada e o consentimento informado foi realizado de acordo com o Conselho de Revisão Institucional da UC Irvine (IRB # 2014-1253). Células fibroblastas humanas foram coletadas de três famílias de diferentes variações da mutação genética lamina A/C (LMNA),mutação do sítio de emenda lmna heterozigêutica LMNA (c.357-2A>G)22 (família A); Mutação sem sentido LMNA (c.736 C>T, pQ246X) em exon 423 (família B); e mutação insensata LMNA (c.1003C>T, pR335W) em exon 624 (família C). As células fibroblastos também foram coletadas de outros indivíduos em cada família como controles relacionados de mutação negativa, referidos como "Controles", e outros foram comprados como controles negativos de mutação não relacionados, referidos como "Doadores". Como um controle positivo, as pilhas do fibroblasto de um indivíduo com progeria de Hutchinson-Gliford (HGPS) foram compradas e crescidas de uma biópsia da pele tomada de um paciente fêmea dos anos de idade 8 com HGPS que possui uma mutação25do ponto de LMNA G608G. No total, os fibroblastos de 22 indivíduos foram testados e utilizados como dados neste trabalho.

Tipos de dados
Os dados do fibroblasto caíram em uma das duas categorias: variáveis de núcleos celulares (ou seja, percentual de núcleos dismórficos, área de núcleos, excentricidade de núcleos)20 ou variáveis estruturais decorrentes do parâmetro de ordem orientacional (OOP)21,26,27 (ou seja, actino, fibronectina OOP, núcleos OOP). Este parâmetro é igual ao eigenvalue máximo do tensor médio da ordem de todos os vetores da orientação, e é definido em detalhe em publicações precedentes26,28. Esses valores são agregados em uma variedade de possíveis conformações, como valores contra idade, sexo, estado da doença, presença de certos sintomas, etc. Exemplos de como essas variáveis são usadas podem ser encontrados na seção de resultados.

Exemplo de códigos e arquivos
Os códigos de exemplo e outros arquivos com base nos dados acima podem ser baixados com este papel, e seus nomes e tipos são resumidos na Tabela 1.

Protocolo

NOTA: Veja a tabela de materiais para as versões de software usadas neste protocolo.

1. Avaliar se os dados se beneficiariam de um esquema de organização de banco de dados

  1. Baixe os códigos de exemplo e bancos de dados (ver Arquivos de Codificação Suplementar,que são resumidos na Tabela 1).
  2. Use a Figura 1 para avaliar se o conjunto de dados de interesse é "multidimensional".
    NOTA: A Figura 1 é uma representação gráfica de um banco de dados multidimensional fornecido para o conjunto de dados de exemplo.
  3. Se os dados puderem ser visualizados de forma "multidimensional", como o exemplo, e se a capacidade de relacionar um resultado experimental específico a qualquer uma das dimensões (ou seja, condições) permitiria uma maior percepção científica sobre os dados disponíveis, prossiga para construir um banco de dados relacional.

2. Organizar a estrutura do banco de dados

NOTA: Bancos de dados relacionais armazenam informações na forma de tabelas. As tabelas são organizadas em esquemas de linhas e colunas, semelhantes às planilhas, e podem ser usadas para vincular informações de identificação no banco de dados.

  1. Organize os arquivos de dados, para que eles tenham pensado bem nomes únicos. As boas práticas com convenções de nomeação de arquivos e estruturas de pasta-pasta, quando bem feitas, permitem a escalabilidade ampla do banco de dados sem comprometer a legibilidade do acesso manualaos arquivos. Adicionar arquivos de data em um formato consistente, como "20XX-YY-ZZ", e subdobradores de nome de acordo com metadados é um exemplo.
  2. À medida que a estrutura de base de dados é projetada, desenhe relações entre os campos em diferentes tabelas. Assim, a multidimensionalidade é tratada relacionando diferentes campos (ou seja, colunas nas tabelas) em tabelas individuais entre si.
  3. Crie documentação de leitura que descreva o banco de dados e as relações que foram criadas na etapa 2.2. Uma vez que uma entrada entre tabelas diferentes é lig, toda a informação associada é relacionada a essa entrada e pode ser usada para chamar consultas complexas para filtrar para baixo à informação desejada.
    NOTA: Os documentos da Readme são uma solução comum para fornecer informações complementares e informações estruturais de banco de dados sobre um projeto sem adicionar dados não uniformes à estrutura.
  4. Seguindo etapas 2.1-2.3, faça o resultado final similar a este exemplo onde as características de deferimento dos indivíduos(figura 2A)são relacionadas aos dados experimentais associados daqueles indivíduos(figura 2B). O mesmo foi feito através de colunas relativas de tipos de padrões(Figura 2C)e tipos de dados(Figura 2D) a entradas correspondentes na tabela de valores de dados principais para explicar várias anotações de taquigrafia ( Figura2B).
  5. Determine todos os pontos de dados essenciais e meramente úteis que precisam ser registrados para coleta de dados de longo alcance.
    NOTA: Uma vantagem fundamental do uso de bancos de dados sobre programas de planilha, como mencionado anteriormente, é a escalabilidade: pontos de dados adicionais podem ser adicionados trivialmente em qualquer ponto e os cálculos, como médias, são instantaneamente atualizados para refletir pontos de dados recém-adicionados.
    1. Identifique as informações necessárias para a criação de pontos de dados distintos antes do início. Deixe os dados brutos intocados, em vez de modificar ou economizar sobre ele, para que a reanálise seja possível e acessível.
      NOTA: Para o exemplo dado (Figura 2), o "Designator" correspondente a um indivíduo, "Tipo padrão", "Coverslip #", e "Tipo variável" foram todos os campos vitais para a distinção do valor associado.
    2. Se desejar, adicione outras informações úteis e não vitais, como o "Total # of Coverslips" para indicar o número de repetições realizadas e ajudar a determinar se os pontos de dados estão faltando neste exemplo.

3. Configurar e organizar o gasoduto

  1. Identifique todos os vários experimentos e métodos de análise de dados que podem levar à coleta de dados, juntamente com as práticas normais de armazenamento de dados para cada tipo de dados. Trabalhe com software de controle de versão de código aberto, como o GitHub, para garantir a consistência e o controle de versão necessários, minimizando a carga do usuário.
  2. Se possível, crie um procedimento para nomear e armazenar dados consistentes para permitir um pipeline automatizado.
    NOTA: No exemplo, as saídas foram todas nomeadas de forma consistente, criando assim um pipeline de dados que procurava atributos específicos era simples uma vez que os arquivos foram selecionados. Se a nomeação consistente não for possível, as tabelas no banco de dados precisarão ser preenchidas manualmente, o que não é recomendado.
  3. Use qualquer linguagem de programação conveniente para gerar novas entradas de dados para o banco de dados.
    1. Crie pequenas tabelas de "ajudantes" (arquivos #8-#10 na Tabela 1)em arquivos separados que podem orientar a seleção automatizada de dados. Esses arquivos servem como um modelo de possibilidades para o pipeline operar e são fáceis de eitar.
    2. Para gerar novas entradas de dados para o pipeline de dados(Figura 3D),programe o código (LocationPointer.m, arquivo #1 na Tabela 1)para usar as tabelas de ajudantes como entradas para serem selecionadas pelo usuário (arquivos #8-#10 na Tabela 1).
    3. A partir daqui, monte uma nova planilha de locais de arquivo, combinando as novas entradas com as entradas anteriores (Figura 3E). Crie um código para automatizar esta etapa, como mostrado no LocationPointerCompile.m (arquivo #2 na Tabela 1).
    4. Posteriormente, verifique esta planilha fundida para duplicatas, que devem ser removidas automaticamente. Criar um código para automatizar esta etapa, como mostrado em LocationPointer_Remove_Duplicates.m (arquivo #3 na Tabela 1).
    5. Além disso, verifique a planilha para erros e notifique o usuário de sua razão e localização(Figura 3F). Crie um código para automatizar esta etapa, como mostrado no BadPointerCheck.m (arquivo #4 na Tabela 1). Alternativamente, escreva um código que verifique o banco de dados compilado e identifique duplicatas em uma etapa, como mostrado em LocationPointer_Check.m (#5 de arquivo na Tabela 1).
    6. Crie um código para permitir que o usuário remova manualmente pontos ruins sem perder a integridade do banco de dados, conforme mostrado em Manual_Pointer_Removal.m (arquivo #6 na Tabela 1).
    7. Em seguida, use os locais do arquivo para gerar uma planilha de valor de dados(Figura 3G,arquivo #12 na Tabela 1),bem como para criar uma lista mais atualizada de entradas que podem ser acessadas para identificar locais de arquivos ou fundidas com entradas futuras ( Figura3H). Criar um código para automatizar esta etapa, como mostrado em Database_Generate.m (arquivo #7 na Tabela 1).
  4. Verifique se o pipeline aumenta o rigor experimental verificando a inclusão de convenções de nomenclatura rigorosas, códigos de montagem de arquivos automatizados e verificações de erro automatizadas como descrito anteriormente.

4. Criar o banco de dados e consultas

NOTA: Se as tabelas armazenam informações em bancos de dados, então as consultas são solicitações ao banco de dados para obter informações dadas critérios específicos. Existem dois métodos para criar o banco de dados: a partir de um documento em branco ou a partir dos arquivos existentes. A figura 4 mostra uma consulta de exemplo usando a sintaxe SQL que é projetada para ser executada usando as relações de banco de dados mostradas na Figura 2.

  1. Método 1: A partir do zero na criação do banco de dados e consultas
    1. Crie um documento de banco de dados em branco.
    2. Carregue as tabelas de ajudantes (arquivos #8-#10 na Tabela 1)selecionando dados externos | Texto Arquivo Importação | Escolha arquivo (arquivos #8-#10) | Delimitada | Primeira fila contém cabeçalhos, Comma | deixar padrão | Escolha minha própria chave primária (designador para #8 de arquivos de linhas celulares, nome variável para #9 de arquivos de tipos de dados, nome pat para #10 de arquivo tipo padrão) | | deixar padrão | Terminar.
    3. Carregue a tabela de valor de dados (#12 de arquivo na Tabela 1)selecionando dados externos | Texto Arquivo Importação | Escolha arquivo (arquivo #12) | Delimitada | Primeira fila contém cabeçalhos, Comma | deixar padrão | Deixe o acesso adicionar a chave primária | Importação à tabela: DataValues | Terminar.
    4. Criar as relações selecionando ferramentas de banco de dados | Relacionamentos | Arraste todas as tabelas para o tabuleiro | Eitie Relacionamentos | Criar novo | Combine os campos datavalue com os projetadores de tabelas de ajudante | Tipo 3 conjunto.
    5. Selecione criar | Projeto de consulta.
    6. Selecione ou arraste todas as tabelas relevantes para a janela superior. Neste exemplo, "Linhas de célula", "valores de dados", "tipos de dados" e "tipo de padrão". As relações devem ser configuradas automaticamente com base no design anterior do Relacionamento.
    7. Preencha as colunas de consulta para os resultados desejados, por exemplo:
      1. Clique no Show | Totais.
      2. Preencha a primeira coluna (Tabela: DataValues, Campo: DataVar, Total: GroupBy, Criteria: "Act_OOP"), a segunda coluna (Tabela: DataValues, Field: PatVar, Total: GroupBy, Criteria: "Lines"), e a terceira coluna (Tabela: Cell_Lines, Campo: Designator, Total: GroupBy, Classificar: Ascendente).
      3. Preencha a quarta coluna (Tabela: DataValues, Campo: Parâmetro, Total: Ave), a quinta coluna (Tabela: DataValues, Campo: Parâmetro, Total: StDev) e a sexta coluna (Tabela: DataValues, Campo: Parâmetro, Total: Contagem).
    8. Executar a consulta.
  2. Alternativamente, use o banco de dados de exemplo fornecido como base para exemplos. Abra o arquivo de banco de dados Database_Queries.accdb (arquivo #13 na Tabela 1)que foi baixado anteriormente. Use-o como modelo, substituindo as tabelas existentes pelos dados de interesse.

5. Mova as tabelas de saída para um software estatístico para análise de significância

  1. Para esta amostra de dados experimentais, use a análise de sentido único da variância (ANOVA) usando o teste de Tukey para comparações médias entre várias condições.
    NOTA: Os valores de p < 0,05 foram considerados estatisticamente significativos.

Resultados

Multidimensionalidade dos dados
No contexto do exemplo de conjunto de dados apresentado aqui, os sujeitos, descritos na seção Métodos, foram divididos em grupos de indivíduos das três famílias com a mutação lmna causador de doençacardíaca ("Pacientes"), controles negativos não mutacionais relacionados ("Controles), controles negativos não-mutações não relacionados ("Doadores"), e um indivíduo com síndrome de progeria Hutchinson-Gilford (HGPS) como um controle positivo

Discussão

Discussão técnica do protocolo
O primeiro passo ao considerar o uso de bancos de dados é avaliar se os dados se beneficiariam de tal organização.

O próximo passo essencial é criar um código automatizado que peça a entrada mínima do usuário e gere a estrutura de dados da tabela. No exemplo, o usuário entrou na categoria de tipo de dados (núcleos celulares ou medidas estruturais), designador de sujeitos das linhas celulares e número de arquivos selecionados. Os ...

Divulgações

Os autores não têm nada a divulgar.

Agradecimentos

Este trabalho é apoiado pelo National Heart, Lung, and Blood Institute no National Institutes of Health, número de subvenção R01 HL129008. Os autores agradecer especialmente os membros da família mutação do gene LMNA por sua participação no estudo. Também gostaríamos de agradecer a Linda McCarthy por sua ajuda com a cultura celular e manutenção dos espaços de laboratório, Nasam Chokr por sua participação em imagens celulares e na análise de dados de núcleos, e Michael A. Grosberg por seu conselho pertinente com a criação de nosso banco de dados inicial do Microsoft Access, bem como responder a outras questões técnicas.

Materiais

NameCompanyCatalog NumberComments
4',6'-diaminodino-2-phenylinodole (DAPI)Life Technologies, Carlsbad, CA
Alexa Fluor 488 PhalloidinLife Technologies, Carlsbad, CA
Alexa Fluor 750 goat anti-rabbitLife Technologies, Carlsbad, CA
digital CCD camera ORCAR2 C10600-10BHamamatsu Photonics, Shizuoka Prefecture, Japan
fibronectinCorning, Corning, NY
IX-83 inverted motorized microscopeOlympus America, Center Valley, PA
Matlab R2018bMathworks, Natick, MA
MS AccessMicrosoft, Redmond, WA
paraformaldehyde (PFA)Fisher Scientific Company, Hanover Park, IL
polycloncal rabbit anti-human fibronectinSigma Aldrich Inc., Saint Louis, MO
polydimethylsiloxane (PDMS)Ellsworth Adhesives, Germantown, WI
Prolong Gold AntifadeLife Technologies, Carlsbad, CA
rectangular glass coverslipsFisher Scientific Company, Hanover Park, IL
Triton-XSigma Aldrich Inc., Saint Louis, MO

Referências

  1. Cavin, R. K., Lugli, P., Zhirnov, V. V. Science and engineering beyond Moore's law. Proceedings of the IEEE. 100, 1720-1749 (2012).
  2. Mast, F. D., Ratushny, A. V., Aitchison, J. D. Systems cell biology. The Journal of Cell Biology. 206 (6), 695-706 (2014).
  3. Barone, L., Williams, J., Micklos, D. Unmet needs for analyzing biological big data: A survey of 704 NSF principal investigators. PLoS Computational Biology. 13 (10), 1005755 (2017).
  4. Gandomi, A., Haider, M. Beyond the hype: Big data concepts, methods, and analytics. International Journal of Information Management. 35 (2), 137-144 (2015).
  5. Siddiqa, A., et al. A survey of big data management: Taxonomy and state-of-the-art. Journal of Network and Computer Applications. 71, 151-166 (2016).
  6. Anderson, C. The End of Theory: The Data Deluge Makes the Scientific Method Obsolete. Wired Magazine. , (2008).
  7. Broman, K. W., Woo, K. H. Data Organization in Spreadsheets. The American Statistician. 72 (1), 2-10 (2018).
  8. Lee, H., et al. How I do it: a practical database management system to assist clinical research teams with data collection, organization, and reporting. Academic Radiology. 22 (4), 527-533 (2015).
  9. Bassil, Y. A comparative study on the performance of the Top DBMS systems. Journal of Computer Science & Research. 1 (1), 20-31 (2012).
  10. . Learn SQL - Codeacademy Available from: https://www.codecademy.com/learn/learn-sql (2018)
  11. . SQL Tutorial - w3schools.com Available from: https://www.w3schools.com/sql (2018)
  12. . Introduction to SQL - SQLBolt Available from: https://sqlbolt.com (2018)
  13. Pedersen, T. B., Jensen, C. S. Multidimensional database technology. Computer. 34 (12), 40-46 (2001).
  14. Győrödi, C., Gyorodi, R., Sotoc, R. A Comparative Study of Relational and Non-Relational Database Models in a Web- Based Application. International Journal of Advanced Computer Science and Applications. 6 (11), 78-83 (2015).
  15. Nayak, A., Poriya, A., Poojary, D. Type of NOSQL databases and its comparison with relational databases. International Journal of Applied Information Systems. 5 (4), 16-19 (2013).
  16. Lei, C., Feng, D., Wei, C., Ai-xin, Z., Zhen-hu, C. The application of multidimensional data analysis in the EIA database of electric industry. Procedia Environmental Sciences. 10, 1210-1215 (2011).
  17. Soranno, P. A., et al. Building a multi-scaled geospatial temporal ecology database from disparate data sources: fostering open science and data reuse. GigaScience. 4, 28 (2015).
  18. Edwards, P. Questionnaires in clinical trials: guidelines for optimal design and administration. Trials. 11, 2 (2010).
  19. Richards, M. A., et al. MediaDB: A Database of Microbial Growth Conditions in Defined Media. PLoS ONE. 9 (8), 103548 (2014).
  20. Core, J. Q., et al. Age of heart disease presentation and dysmorphic nuclei in patients with LMNA mutations. PLoS ONE. 12 (11), 0188256 (2017).
  21. Drew, N. K., Johnsen, N. E., Core, J. Q., Grosberg, A. Multiscale Characterization of Engineered Cardiac Tissue Architecture. Journal of Biomechanical Engineering. 138 (11), 111003 (2016).
  22. Zaragoza, M. V., et al. Exome Sequencing Identifies a Novel LMNA Splice-Site Mutation and Multigenic Heterozygosity of Potential Modifiers in a Family with Sick Sinus Syndrome, Dilated Cardiomyopathy, and Sudden Cardiac Death. PLoS ONE. 11 (5), 0155421 (2016).
  23. Zaragoza, M., Nguyen, C., Widyastuti, H., McCarthy, L., Grosberg, A. Dupuytren's and Ledderhose Diseases in a Family with LMNA-Related Cardiomyopathy and a Novel Variant in the ASTE1 Gene. Cells. 6 (4), 40 (2017).
  24. Zaragoza, M. V., Hakim, S. A., Hoang, V., Elliott, A. M. Heart-hand syndrome IV: a second family with LMNA-related cardiomyopathy and brachydactyly. Clinical Genetics. 91 (3), 499-500 (2017).
  25. Eriksson, M., et al. Recurrent de novo point mutations in lamin A cause Hutchinson-Gilford progeria syndrome. Nature. 423 (6937), 293-298 (2003).
  26. Drew, N. K., Eagleson, M. A., Baldo, D. B., Parker, K. K., Grosberg, A. Metrics for Assessing Cytoskeletal Orientational Correlations and Consistency. PLoS Computational Biology. 11 (4), 1004190 (2015).
  27. Hamley, I. W. . Introduction to Soft Matter: Synthetic and Biological Self-Assembling Materials. , (2013).
  28. Grosberg, A., Alford, P. W., McCain, M. L., Parker, K. K. Ensembles of engineered cardiac tissues for physiological and pharmacological study: Heart on a chip. Lab Chip. 11 (24), 4165-4173 (2011).
  29. Hey, T., Trefethen, A., Berman, F., Fox, G., Hey, A. J. G. The Data Deluge: An e-Science Perspective. Grid Computing: Making the Global Infrastructure a Reality. , (2003).
  30. Wardle, M., Sadler, M. How to set up a clinical database. Practical Neurology. 16 (1), 70-74 (2016).
  31. Kerr, W. T., Lau, E. P., Owens, G. E., Trefler, A. The future of medical diagnostics: large digitized databases. The Yale Journal of Biology and Medicine. 85 (3), 363 (2012).
  32. Laulederkind, S. J., et al. The Rat Genome Database curation tool suite: a set of optimized software tools enabling efficient acquisition, organization, and presentation of biological data. Database. 2011, (2011).
  33. Harris, P. A., et al. Research electronic data capture (REDCap)--a metadata-driven methodology and workflow process for providing translational research informatics support. Journal of Biomedical Informatics. 42 (2), 377-381 (2009).
  34. Panko, R. R. What we know about spreadsheet errors. Journal of Organizational and End User Computing (JOEUC). 10 (2), 15-21 (1998).
  35. Ziemann, M., Eren, Y., El-Osta, A. Gene name errors are widespread in the scientific literature. Genome Biology. 17 (1), 177 (2016).
  36. Enhancing Reproducibility through Rigor and Transparency. NIH Available from: https://grants.nih.gov/reproducibility/index.htm (2018)
  37. Hofseth, L. J. Getting rigorous with scientific rigor. Carcinogenesis. 39 (1), 21-25 (2017).
  38. . SQL Training and Tutorials - Lynda.com Available from: https://www.lynda.com/SQL-training-tutorials/446-0.html (2018)

Reimpressões e Permissões

Solicitar permissão para reutilizar o texto ou figuras deste artigo JoVE

Solicitar Permissão

Explore Mais Artigos

BioengenhariaEdi o 153dados de m dio portebancos de dadosLMNAorganiza o de dadosdados multidimensionaisengenharia de tecidos

This article has been published

Video Coming Soon

JoVE Logo

Privacidade

Termos de uso

Políticas

Pesquisa

Educação

SOBRE A JoVE

Copyright © 2025 MyJoVE Corporation. Todos os direitos reservados