Oturum Aç

Bu içeriği görüntülemek için JoVE aboneliği gereklidir. Oturum açın veya ücretsiz deneme sürümünü başlatın.

Bu Makalede

  • Özet
  • Özet
  • Giriş
  • Protokol
  • Sonuçlar
  • Tartışmalar
  • Açıklamalar
  • Teşekkürler
  • Malzemeler
  • Referanslar
  • Yeniden Basımlar ve İzinler

Özet

Bu protokol, biyoinformatiğe yeni başlayanlara, kullanıcıların CUT & RUN sıralama verilerinin ilk analizini ve doğrulamasını tamamlamalarını sağlayan giriş niteliğinde bir CUT & RUN analiz hattı aracılığıyla rehberlik eder. Burada açıklanan analiz adımlarının tamamlanması, aşağı akış tepe açıklaması ile birlikte, kullanıcıların kromatin regülasyonu hakkında mekanik içgörüler elde etmesine olanak tanır.

Özet

CUT&RUN tekniği, genom boyunca protein-DNA etkileşimlerinin tespit edilmesini kolaylaştırır. CUT & RUN'ın tipik uygulamaları arasında profil oluşturma, histon kuyruğu modifikasyonlarındaki değişiklikler veya transkripsiyon faktörü kromatin doluluğunun haritalanması yer alır. CUT & RUN'ın yaygın olarak benimsenmesi, kısmen, daha düşük hücre giriş gereksinimleri, daha düşük dizileme derinliği gereksinimleri ve aksi takdirde antikor epitoplarını maskeleyen çapraz bağlama ajanlarının eksikliği nedeniyle azaltılmış arka plan sinyali ile artan hassasiyet içeren geleneksel ChIP-seq'e göre teknik avantajlardan kaynaklanmaktadır. CUT&RUN'ın yaygın olarak benimsenmesi, Henikoff laboratuvarı tarafından reaktiflerin cömert bir şekilde paylaşılması ve yeni başlayanlar için benimsemeyi hızlandırmak için ticari kitlerin geliştirilmesi yoluyla da sağlanmıştır. CUT&RUN'ın teknik olarak benimsenmesi arttıkça, CUT&RUN sıralama analizi ve doğrulaması, ağırlıklı olarak ıslak laboratuvar ekipleri tarafından tam olarak benimsenmesini sağlamak için aşılması gereken kritik darboğazlar haline gelir. CUT&RUN analizi tipik olarak, sıralama derinliğini, okuma kalitesini ve olası sapmaları değerlendirmek için ham sıralama okumaları üzerindeki kalite kontrol kontrolleriyle başlar. Okumalar daha sonra bir referans genom dizisi düzeneğine hizalanır ve daha sonra protein zenginleştirmesinin genomik bölgelerini açıklamak, veri yorumlanabilirliğini doğrulamak ve biyolojik sonuçlar çıkarmak için çeşitli biyoinformatik araçlar kullanılır. CUT & RUN veri analizini desteklemek için birden fazla in silico analiz boru hattı geliştirilmiş olsa da, karmaşık çok modüllü yapıları ve çoklu programlama dillerinin kullanımı, platformları birden fazla programlama diline aşina olmayan ancak CUT & RUN analiz prosedürünü anlamak ve analiz boru hatlarını özelleştirmek isteyen biyoinformatik yeni başlayanlar için zorlaştırmaktadır. Burada, herhangi bir düzeyde biyoinformatik deneyimine sahip kullanıcılar için tasarlanmış tek dilli adım adım bir CUT&RUN analiz boru hattı protokolü sunuyoruz. Bu protokol, sıralama verilerinin biyolojik yorumlama için uygun olduğunu doğrulamak için kritik kalite kontrollerinin tamamlanmasını içerir. Bu makalede sağlanan giriş protokolünü takip etmenin, aşağı akış tepe ek açıklamasıyla birlikte kullanıcıların kendi CUT&RUN veri kümelerinden biyolojik içgörüler elde etmelerine olanak tanıyacağını umuyoruz.

Giriş

Proteinler ve genomik DNA arasındaki etkileşimleri ölçme yeteneği, kromatin regülasyonunun biyolojisini anlamak için temeldir. Belirli bir protein için kromatin doluluğunu ölçen etkili tahliller, en az iki temel bilgi parçası sağlar: i) genomik lokalizasyon ve ii) belirli bir genomik bölgedeki protein bolluğu. Kromatin ile ilgilenen bir proteinin işe alım ve lokalizasyon değişikliklerinin izlenmesi, proteinin doğrudan hedef lokuslarını ortaya çıkarabilir ve bu proteinin transkripsiyonun düzenlenmesi, DNA onarımı veya DNA replikasyonu gibi kromatin bazlı biyolojik süreçlerdeki mekanik rollerini ortaya çıkarabilir. Günümüzde protein-DNA etkileşimlerinin profilini çıkarmak için mevcut olan teknikler, araştırmacıların düzenlemeyi benzeri görülmemiş bir çözünürlükte keşfetmelerini sağlıyor. Bu tür teknik ilerlemeler, Henikoff laboratuvarı tarafından Hedefler Altında Bölünme ve Nükleaz Kullanarak Serbest Bırakma (CUT & RUN) geliştirilmesini içeren yeni kromatin profilleme tekniklerinin tanıtılmasıyla mümkün olmuştur. CUT & RUN, geleneksel kromatin immünopresipitasyonuna (ChIP) göre daha düşük hücre giriş gereksinimleri, daha düşük dizileme derinliği gereksinimleri ve aksi takdirde antikor epitoplarını maskeleyen çapraz bağlama ajanlarının eksikliği nedeniyle azaltılmış arka plan sinyali ile artan hassasiyet gibi çeşitli teknik avantajlar sunar. Kromatin regülasyonunu incelemek için bu tekniği benimsemek, tekniğin altında yatan ilkenin kapsamlı bir şekilde anlaşılmasını ve CUT & RUN verilerinin nasıl analiz edileceğinin, doğrulanacağının ve yorumlanacağının anlaşılmasını gerektirir.

CUT & RUN prosedürü, prosedür boyunca düşük hücre sayılarının manipülasyonunu sağlamak için hücrelerin manyetik boncuklara konjuge Concanavalin A'ya bağlanmasıyla başlar. İzole edilmiş hücreler, ilgilenilen proteini hedef alan bir antikorun eklenmesini kolaylaştırmak için hafif bir deterjan kullanılarak geçirgenleştirilir. Mikrokokal nükleaz (MNaz) daha sonra enzime bağlı bir Protein A veya Protein A/G etiketi kullanılarak bağlı antikora alınır. Enzimatik aktiviteyi başlatmak için kalsiyum eklenir. MNaz sindirimi, mono-nükleozomal DNA-protein kompleksleri ile sonuçlanır. Kalsiyum daha sonra sindirim reaksiyonunu sona erdirmek için şelatlanır ve MNaz sindiriminden kısa DNA parçaları çekirdeklerden salınır, daha sonra DNA saflaştırmasına, kütüphane hazırlığına ve yüksek verimli dizilemeyetabi tutulur 1 (Şekil 1).

Genom boyunca protein doluluğunu haritalamak ve ölçmek için in silico yaklaşımlar, bu DNA-protein etkileşimlerini zenginleştirmek için kullanılan ıslak laboratuvar yaklaşımlarına paralel olarak geliştirilmiştir. Zenginleştirilmiş sinyallerin bölgelerinin (tepe noktaları) tanımlanması, biyoinformatik analizdeki en kritik adımlardan biridir. İlk ChIP-seq analiz yöntemleri, iyi niyetli protein-DNA bağlanma bölgelerini arka plan gürültüsünden ayırt etmek için istatistiksel modeller kullanan MACS2 ve SICER3 gibi algoritmalar kullandı. Bununla birlikte, CUT&RUN verilerinin daha düşük arka plan gürültüsü ve daha yüksek çözünürlüğü, ChIP-seq analizinde kullanılan bazı tepe çağrı programlarını CUT&RUN analizi4 için uygun olmayan hale getirir. Bu zorluk, CUT&RUN verilerinin analizi için daha uygun olan yeni araçlara olan ihtiyacı vurgulamaktadır. SEACR4, tipik olarak ChIP-seq analizine yönelik kullanılan araçlarla ilişkili sınırlamaların üstesinden gelirken, CUT & RUN verilerinden en yüksek çağrıyı sağlamak için yakın zamanda geliştirilen böyle bir aracı temsil eder.

CUT&RUN sıralama verilerinden elde edilen biyolojik yorumlar, analiz boru hattındaki tepe çağrısının aşağı akışındaki çıktılardan alınır. CUT & RUN verilerinden çağrılan tepe noktalarının potansiyel biyolojik alaka düzeyini tahmin etmek için çeşitli işlevsel açıklama programları uygulanabilir. Örneğin, Gen Ontolojisi (GO) projesi, ilgilenilen genlerin iyi kurulmuş fonksiyonel tanımlamasını sağlar 5,6,7. Çeşitli yazılım araçları ve kaynakları, CUT & RUN zirveleri 8,9,10,11,12,13,14 arasında zenginleştirilmiş genleri ve gen setlerini ortaya çıkarmak için GO analizini kolaylaştırır. Ayrıca, Deeptools15, Integrative genomics viewer (IGV)16 ve UCSC Genome Browser17 gibi görselleştirme yazılımları, genom boyunca ilgilenilen bölgelerdeki sinyal dağılımının ve modellerinin görselleştirilmesini sağlar.

CUT&RUN verilerinden biyolojik yorumlar çıkarma yeteneği, kritik olarak veri kalitesinin doğrulanmasına bağlıdır. Doğrulanması gereken kritik bileşenler arasında aşağıdakilerin değerlendirilmesi yer alır: i) CUT&RUN kütüphane sıralama kalitesi, ii) benzerliği çoğaltma ve iii) tepe merkezlerinde sinyal dağılımı. Her üç bileşenin de doğrulanmasının tamamlanması, CUT&RUN kütüphane örneklerinin ve aşağı akış analiz sonuçlarının güvenilirliğini sağlamak için çok önemlidir. Bu nedenle, biyoinformatiğe yeni başlayanların ve ıslak laboratuvar araştırmacılarının standart CUT&RUN analiz hatlarının bir parçası olarak bu tür doğrulama adımlarını yürütmelerini sağlamak için giriş niteliğinde CUT&RUN analiz kılavuzlarının oluşturulması önemlidir.

Islak laboratuvar CUT&RUN deneyinin geliştirilmesinin yanı sıra, CUT&RUNTools 2.018,19, nf-core/cutandrun20 ve CnRAP21 gibi çeşitli in silico CUT&RUN analiz boru hatları CUT&RUN veri analizini desteklemek için geliştirilmiştir. Bu araçlar, tek hücreli ve toplu CUT&RUN ve CUT&Tag veri kümelerini analiz etmek için güçlü yaklaşımlar sağlar. Bununla birlikte, nispeten karmaşık modüler program yapısı ve bu analiz boru hatlarını yürütmek için birden fazla programlama diline aşinalık gerektirmesi, CUT & RUN analiz adımlarını tam olarak anlamak ve kendi boru hatlarını özelleştirmek isteyen biyoinformatik yeni başlayanlar tarafından benimsenmesini engelleyebilir. Bu engelin aşılması, basit bir tek programlama dili kullanılarak kodlanmış basit adım adım komut dosyalarında sağlanan yeni bir giriş CUT&RUN analiz hattı gerektirir.

Bu makalede, yeni ve acemi kullanıcıların CUT&RUN sıralama analizi yapmalarını sağlamak için ayrıntılı açıklamalarla desteklenen adım adım komut dosyaları sağlayan basit bir tek dilli CUT&RUN analiz boru hattı protokolünü açıklıyoruz. Bu işlem hattında kullanılan programlar, özgün geliştirici grupları tarafından genel kullanıma açıktır. Bu protokolde açıklanan ana adımlar, biyolojik yorumlama için veri uygunluğunu ve güvenilirliğini belirlemek için numune kalitesini değerlendirmek için okuma hizalaması, tepe çağrısı, fonksiyonel analiz ve en önemlisi doğrulama adımlarını içerir (Şekil 2). Ayrıca, bu boru hattı kullanıcılara analiz sonuçlarını halka açık CUT&RUN veri kümeleriyle çapraz referans verme fırsatı sunar. Sonuç olarak, bu CUT&RUN analiz boru hattı protokolü, biyoinformatik analize yeni başlayanlar ve ıslak laboratuvar araştırmacıları için bir giriş kılavuzu ve referans görevi görür.

Protokol

NOT: CUT&RUN fastq ile ilgili bilgiler GSE126612 Tablo 1'de mevcuttur. Bu çalışmada kullanılan yazılım uygulamaları ile ilgili bilgiler Malzeme Tablosu'nda listelenmiştir.

1. Easy-Shells_CUTnRUN pipeline'ı Github sayfasından indirme

  1. İşletim sisteminden terminali açın.
    NOT: Kullanıcı macOS ve Windows'ta terminali nasıl açacağından emin değilse, bu web sayfasını (https://discovery.cs.illinois.edu/guides/System-Setup/terminal/) gözden geçirin. Linux için bu web sayfasını (https://www.geeksforgeeks.org/how-to-open-terminal-in-linux/) inceleyin.
  2. Terminalde wget https://github.com/JunwooLee89/Easy-Shells_CUTnRUN/archive/refs/heads/main.zip -O ~/Desktop/Easy-Shells_CUTnRUN.zip yazarak Github'dan sıkıştırılmış analiz işlem hattını indirin.
  3. Zip dosyasını indirdikten sonra, terminalde unzip ~/Desktop/Easy-Shells_CUTnRUN.zip -d ~/Desktop/ yazarak indirilen zip dosyasını açın.
  4. Açma işleminden sonra, terminalde rm ~/Desktop/Easy-Shells_CUTnRUN.zip yazarak zip dosyasını silin ve mv ~/Desktop/Easy-Shells_CUTnRUN-master ~/Desktop/Easy-Shells_CUTnRUN yazarak klasör adını değiştirin.
  5. Sıkıştırılmış dosyayı kaldırdıktan sonra, çalışma dizinindeki tüm kabuk komut dosyaları için yürütülebilir izni ayarlamak için terminalde chmod +x ~/Desktop/Easy-Shells_CUTnRUN/script/*.sh yazın. Şu andan itibaren, bu kabuk komut dosyalarının yolunu ve adını terminale yazmanız veya bu kabuk komut dosyalarını terminalde çalıştırmak için komut dosyalarını terminale sürükleyip enter tuşuna basmanız yeterlidir.
    NOT: Bash kabuğu genellikle çoğu Linux dağıtımına önceden yüklenmiştir. Ancak, son macOS sürümleri artık önceden yüklenmiş Bash kabuğu sağlamamaktadır. Sistemde Bash yoksa, önce Bash kabuğunu yükleyin. Bash kabuğunun Linux işletim sisteminde (https://ioflood.com/blog/install-bash-shell-linux/) ve macOS'ta (https://www.cs.cornell.edu/courses/cs2043/2024sp/styled-3/#:~:text=The%20first%20thing%20you%20will,you%20will%20see%20the%20following:) nasıl kurulacağını açıklayan talimatlar için aşağıdaki bağlantıları ziyaret edin. Bu adım adım kabuk komut dosyaları, bu CUT & RUN analizinin çoğunu bu dizin içinde herhangi bir değişiklik yapmaya gerek kalmadan gerçekleştirmek için ~/Desktop/GSE126612 bir klasör oluşturmak üzere yazılmıştır. Kullanıcı bu kabuk komut dosyalarının nasıl kullanılacağını anlarsa, kullanıcılar diğer CUT&RUN veri kümelerini analiz etmek ve projeye özel ihtiyaçlara göre seçenekleri değiştirmek için bu kabuk komut dosyalarını gözden geçirebilir ve özelleştirebilir. Bu kabuk komut dosyalarını okumak ve düzenlemek için, büyük İşletim Sistemleri için kullanılabilen kullanımı kolay bir program için bir seçenek olarak Visual Studio Code (https://code.visualstudio.com/) kullanmayı göz önünde bulundurun.

2. Easy Shells CUTnRUN için gerekli programların kurulması

  1. Script_01_installation_***.sh adlı kabuk komut dosyaları arasında, adı kullanıcının sisteminin işletim sistemi türünü içeren kabuk komut dosyasını bulun. Şu anda Easy Shells CUTnRUN, macOS, Debian/Ubuntu ve CentOS/RPM tabanlı sistemler için kurulum komut dosyasını desteklemektedir.
  2. Terminali açın ve aktif terminaldeki varsayılan kabuğu kontrol etmek için echo $SHELL yazın. Bash kabuğu geçerli terminalde varsayılan kabuksa, kullanıcılar terminalde aşağıdakileri görebilir: /path/to/bash (veya /bin/bash gibi benzer bir mesaj).
  3. Varsayılan kabuk Bash değilse, terminale chsh -s $(which bash) yazarak Bash kabuğunu varsayılan kabuk olarak ayarlayın. Terminal varsayılan olarak Bash kabuğunu kullanıyorsa, bu adımı atlayın.
  4. Terminalde, ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_01_installation_***.sh yazarak kurulum kabuk komut dosyasını çalıştırın veya kabuk komut dosyasını terminale sürükleyin ve girin.
  5. /path/to/SEACR-1.3/Testfiles klasöründeki Test_README.md dosyasını okuyun. Kullanıcının sistemindeki SEACR'ın düzgün çalışıp çalışmadığını netleştirmek için README dosyasındaki talimatı izleyin.
    NOT: CUT&RUN verilerinden uygun tepe çağrısı sonuçlarını elde etmek için SEACR Github sayfası tarafından verilen test dosyalarıyla SEACR işlevini doğrulamak çok önemlidir. Bu nedenle, SEACR kurulumundan hemen sonra /path/to/SEACR-1.3/Testfiles içindeki Test_README.md talimatını izleyin. Easy Shells CUTnRUN, bazı işletim sistemleri için kurulum kabuğu komut dosyaları sağlasa da, bu komut dosyaları, Easy Shells CUTnRUN için gereken tüm programları yüklemek için bazı kullanıcıların sisteminde çalışmayabilir. Kurulumda herhangi bir sorun varsa, kaldırılan programın orijinal web sitesini inceleyin veya Easy Shells CUTnRUN github sorunları web sayfasını (https://github.com/JunwooLee89/Easy-Shells_CUTnRUN/issues) kullanarak yardım isteyin.

3. Herkese açık CUT&RUN veri setini Sequence Read Archive'dan (SRA) indirme

  1. Terminali açın ve aktif terminaldeki varsayılan kabuğu kontrol etmek için echo $SHELL yazın. Bash kabuğu geçerli terminalde varsayılan kabuksa, kullanıcılar terminalde aşağıdakileri görebilir: /path/to/bash (veya /bin/bash gibi benzer bir mesaj).
  2. Varsayılan kabuk Bash değilse, terminale chsh -s $(which bash) yazarak Bash kabuğunu varsayılan kabuk olarak ayarlayın. Terminal varsayılan olarak Bash kabuğunu kullanıyorsa, bu adımı atlayın.
  3. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_02_download-fastq.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu komut dosyası: (i) Bir klasör oluşturun (~ / Masaüstü / GSE126612 / fastq) ve fastq klasörü içinde bir metin dosyasında (~ / Masaüstü / Easy-Shells_CUTnRUN / sample_info / SRR_list.txt) yazılmış SRA dosyalarının bir listesini indirin. Örnek olarak, SRR_list.txt, GSE126612 CUT&RUN örneklerinin alt kümesinin fastq dosyalarını içerir. (ii) Ham fastq dosyalarını fastq klasörü içinde indirin. (iii) Bir klasör oluşturun (~/Desktop/GSE126612/log/fastq) ve bu günlük klasörüne bir günlük dosyası (download-fastq_log.txt) ve indirilen örnek bilgi dosyasını (SRR_list_info.txt) yazın.
  4. Komut dosyasını çalıştırdıktan sonra günlük dosyasını kontrol edin. Günlük dosyasında herhangi bir hata mesajı varsa, hatayı düzeltin ve adım 3.3'ü yeniden deneyin. Sorunu çözmek için herhangi bir sorun varsa, Easy Shells CUTnRUN github sorunları web sayfasında (https://github.com/JunwooLee89/Easy-Shells_CUTnRUN/issues) yardım isteyin.
    NOT: Bu CUT&RUN analiz hattının uygulanmasını kolaylaştırmak için, aşağıdaki halka açık numuneler SRA'dan alınır: sahte kontrolden (IgG) bir numune, bir kromatin mimarisi ve transkripsiyon faktörü proteininden (CTCF) üç numune, 'aktif' histon işaretine (H3K27Ac) karşılık gelen dört numune ve RNA polimeraz II (RNAPII-S5P) ile işaretlenmiş transkripsiyonel başlatma bölgelerine karşılık gelen üç numune. Sıralama, eşleştirilmiş uç olarak gerçekleştirildi, bu nedenle örnek başına iki dosya eşleştirildi.

4. Ham sıralama dosyaları için ilk kalite kontrolü

  1. Terminali açın ve aktif terminaldeki varsayılan kabuğu kontrol etmek için echo $SHELL yazın. Bash kabuğu geçerli terminalde varsayılan kabuksa, kullanıcılar terminalde aşağıdakileri görebilir: /path/to/bash (veya /bin/bash gibi benzer bir mesaj).
  2. Varsayılan kabuk Bash değilse, terminale chsh -s $(which bash) yazarak Bash kabuğunu varsayılan kabuk olarak ayarlayın. Terminal varsayılan olarak Bash kabuğunu kullanıyorsa, bu adımı atlayın.
  3. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_03_fastQC.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu kabuk komut dosyası: (i) ~/Desktop/GSE126612/fastq klasöründeki tüm ham fastq dosyaları için FastQC programını çalıştırın ve kalite kontrol raporu dosyalarını ~/Desktop/GSE126612/fastqc.1st klasörüne kaydedin. (ii) FastQC çalıştırması başına bir günlük klasörüne (~/Desktop/GSE126612/log/fastqc.1st) bir günlük dosyası (fastqc.1st.log.SRR-number.txt) yazın.
  4. Kabuk betiğini çalıştırmayı tamamladıktan sonra, çalıştırmanın başarısını netleştirmek için günlük dosyasını gözden geçirin. Günlük dosyasında herhangi bir hata mesajı varsa, hatayı düzeltin ve adım 4.3'ü tekrarlayın. Sorunu çözmek için herhangi bir sorun varsa, Easy Shells CUTnRUN github sorunları web sayfasını (https://github.com/JunwooLee89/Easy-Shells_CUTnRUN/issues) kullanarak yardım isteyin.
    NOT: Çıktı dosyaları arasında, fastqc.html dosyaları kullanıcı dostu kalite kontrol sonuçlarını içerir. Ciddi kalite sorunları varsa, aşağı akış analizi için veri uygunluğunu belirlemek için biyoinformatik meslektaşlarıyla görüşün. Bağdaştırıcı kırpma işleminden sonra veri kalitesinin iyileştirildiğini doğrulamak için benzer kalite kontrol raporları kullanılır. Bu betiği diğer veri kümelerinde kullanmak için, çalışma ve çıkış dizinlerinin yolunu kullanıcının gereksinimlerini karşılayacak şekilde düzenleyin. ChIP-seq okumalarına kıyasla CUT&RUN'ın QC'sini yorumlarken dikkate değer bir fark, CUT&RUN'daki yinelenen okumaların mutlaka PCR kopyalarını göstermemesidir. Bunun nedeni, işe alınan MNase'nin deney grupları içinde aynı veya benzer yerlerde sindirilmesidir.

5. Ham sıralama dosyaları için kalite ve adaptör kırpma

  1. Terminali açın ve aktif terminaldeki varsayılan kabuğu kontrol etmek için echo $SHELL yazın. Bash kabuğu geçerli terminalde varsayılan kabuksa, kullanıcılar terminalde aşağıdakileri görebilir: /path/to/bash (veya /bin/bash gibi benzer bir mesaj).
  2. Varsayılan kabuk Bash değilse, terminale chsh -s $(which bash) yazarak Bash kabuğunu varsayılan kabuk olarak ayarlayın. Terminal varsayılan olarak Bash kabuğunu kullanıyorsa, bu adımı atlayın.
  3. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_04_trimming.sh yazın veya Script_04_trimming.sh betiğini terminale sürükleyin ve girin.
    NOT: Bu kabuk komut dosyası şunları yapacaktır: (i) Adaptör ve kaliteli kırpma gerçekleştirmek için ~/Desktop/GSE126612/fastq içindeki tüm ham fastq dosyaları için Trim-Galore programını çalıştırın. (ii) Bir klasör oluşturun (~/Desktop/GSE126612/trimmed) ve Trim-Galore çıktı dosyalarını kırpılan klasöre kaydedin. (iii) Bir günlük klasörü (~/Desktop/GSE126612/log/trim_galore) oluşturun ve bir Trim-Galore çalıştırması başına trim_galore_log_RSS-number.txt bir günlük dosyası yazın.
  4. Çalıştırma tamamlandıktan sonra, günlük dosyasını dikkatlice gözden geçirin. Günlük dosyasında herhangi bir hata mesajı varsa, hatayı düzeltin ve 5.3 adımını tekrarlayın. Sorunu çözmek için herhangi bir sorun varsa, Easy Shells CUTnRUN github sorunları web sayfasını (https://github.com/JunwooLee89/Easy-Shells_CUTnRUN/issues) kullanarak yardım isteyin.
  5. Bu işlem tamamlandıktan sonra, .html çıktı dosyalarını 4.3'te oluşturulan fastqc.html dosyalarıyla karşılaştırın. Başka bir yerde bulunan herhangi bir fastq dosyası için kırpma adımını gerçekleştirmek üzere giriş ve çıkış dizinlerinin yolunu gözden geçirin.

6. Gerçek ve spike-in kontrol örnekleri için referans genomlar için papyon2 indeksinin indirilmesi

  1. Terminali açın ve aktif terminaldeki varsayılan kabuğu kontrol etmek için echo $SHELL yazın. Bash kabuğu geçerli terminalde varsayılan kabuksa, kullanıcılar terminalde aşağıdakileri görebilir: /path/to/bash (veya /bin/bash gibi benzer bir mesaj).
  2. Varsayılan kabuk Bash değilse, terminale chsh -s $(which bash) yazarak Bash kabuğunu varsayılan kabuk olarak ayarlayın. Terminal varsayılan olarak Bash kabuğunu kullanıyorsa, bu adımı atlayın.
  3. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_05_bowtie2-index.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu komut dosyası: (i) Gerçek örnek referans genomları (insan; hg19; orijinal yayın22'de kullanılmıştır) ve Spike-in kontrol referans genomları (tomurcuklanan maya; R64-1-1) papyon2-indeks klasörüne (~/Desktop/Easy-Shells_CUTnRUN/bowtie2-index). (iii) Bir günlük dosyasını (bowtie2-index-log.txt) bir günlük dizinine (~/Desktop/GSE126612/log/bowtie2-index) yazın.
  4. Çalıştırmanın tamamlanmasından sonra günlük dosyasını kontrol edin. Herhangi bir hata mesajı varsa, hatayı düzeltin ve 6.3 adımını tekrarlayın. Sorunu çözmek için herhangi bir sorun varsa, Easy Shells CUTnRUN github sorunları web sayfasını (https://github.com/JunwooLee89/Easy-Shells_CUTnRUN/issues) kullanarak yardım isteyin.
    NOT: Şu anda, çeşitli referans genomları için Bowtie2 indeksleri Bowtie2 web sitesinde (https://bowtie-bio.sourceforge.net/bowtie2/manual.shtml) sağlanmaktadır. Kullanıcılar, kullanıcının gereksinimlerini karşılamak için herhangi bir Bowtie2 dizinini indirmek için Script_05_bowtie2-index.sh düzenleyebilir. Kullanıcı, ilgilenilen referans genomun Bowtie2 indeksini bulamazsa, referans genom dizisi fasta dosyalarını şuradan bulun:
    1. Ensembl ftp (https://ftp.ensembl.org/pub/current_fasta/)
    2. UCSC web sayfası (https://hgdownload.soe.ucsc.edu/downloads.html)
    3. veya diğer türe özgü veritabanları.
      Referans genom dizisi fasta dosyalarını bulduktan sonra, Bowtie2 web sitesinin "The bowtie2-build indexer" bölümünü (https://bowtie-bio.sourceforge.net/bowtie2/manual.shtml#the-bowtie2-build-indexer) takip ederek indirilen referans genom için bir Bowtie2 indeksi oluşturun.

7. Kırpılmış CUT&RUN dizileme okumalarının referans genomlara eşlenmesi

  1. Terminali açın ve aktif terminaldeki varsayılan kabuğu kontrol etmek için echo $SHELL yazın. Bash kabuğu geçerli terminalde varsayılan kabuksa, kullanıcılar terminalde aşağıdakileri görebilir: /path/to/bash (veya /bin/bash gibi benzer bir mesaj).
  2. Varsayılan kabuk Bash değilse, terminale chsh -s $(which bash) yazarak Bash kabuğunu varsayılan kabuk olarak ayarlayın. Terminal varsayılan olarak Bash kabuğunu kullanıyorsa, bu adımı atlayın.
  3. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_06_bowtie2-mapping.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu kabuk komut dosyası şunları yapacaktır: (1) Tüm bağdaştırıcı ve kaliteli kırpılmış fastq dosyalarını hem deneysel (insan; hg19) hem de spike-in kontrolüne (tomurcuklanan maya; R64-1-1) genomları bağımsız olarak referans alır. (ii) Eşlenmiş okuma çiftleri dosyalarını bam formatı olarak sıkıştırmak için samtools görünüm işlevini çalıştırın. (iii) Bir klasör oluşturun (~/Desktop/GSE126612/bowtie2-mapped) ve sıkıştırılmış eşlenmiş okuma çiftleri dosyasını bowtie2-mapped klasörüne kaydedin. (iv) Bir klasör oluşturun (~/Desktop/GSE126612/log/bowtie2-mapped) ve eşleme işleminin günlüğünü metin dosyası olarak yazın bowtie2_log_hg19_SRR-number.txt hg19 referans genomunda eşlenen okuma çiftleri için ve bowtie2_log_R64-1-1_SRR-number.txt R64-1-1'de eşlenen okuma çiftleri için) bowtie2 eşleme günlük klasörü içindeki eşleme verimliliğini belirtmek için.
  4. Çalıştırmanın tamamlanmasından sonra günlük dosyasını kontrol edin. Günlük dosyasında herhangi bir hata mesajı varsa, hatayı düzeltin ve kabuk komut dosyasını yeniden çalıştırın. Sorunu çözmek için herhangi bir sorun varsa, Easy Shells CUTnRUN github sorunları web sayfasını (https://github.com/JunwooLee89/Easy-Shells_CUTnRUN/issues) kullanarak yardım isteyin.
    NOT: Bu kabuk komut dosyası, 10 bp-700 bp parça uzunluğuna sahip uyumlu olarak eşlenmiş okuma çiftlerini bulmak için eşleştirilmiş uç sıralama dosyalarını eşleme seçenekleriyle bowtie2'yi çalıştırır. Terminalde bowtie2 --help yazarak veya seçenekleri gerektiği gibi anlamak ve değiştirmek için bowtie2 web sitesini (https://bowtie-bio.sourceforge.net/bowtie2/manual.shtml#the-bowtie2-aligner) ziyaret ederek seçenek açıklamalarını keşfedin. Fastq dosyalarının ve Bowtie2 dizinlerinin yolunu ve ad biçimini değiştirerek diğer fastq dosyalarını eşlemek için bu kabuk komut dosyasını kullanın.

8. Eşlenmiş okuma çiftleri dosyalarını sıralama ve filtreleme

  1. Terminali açın ve aktif terminaldeki varsayılan kabuğu kontrol etmek için echo $SHELL yazın. Bash kabuğu geçerli terminalde varsayılan kabuksa, kullanıcılar terminalde aşağıdakileri görebilir: /path/to/bash (veya /bin/bash gibi benzer bir mesaj).
  2. Varsayılan kabuk Bash değilse, terminale "chsh -s $(which bash)" yazarak Bash kabuğunu varsayılan kabuk olarak ayarlayın. Terminal varsayılan olarak Bash kabuğunu kullanıyorsa, bu adımı atlayın.
  3. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_07_filter-sort-bam.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu komut dosyası şunları yapacaktır: (i) Kanonik olmayan kromozom bölgelerinde, genel açıklamalı kara listede ve TA tekrar bölgelerinde eşlenen okuma çiftlerini filtrelemek için ~/Desktop/GSE126612/bowtie2-mapped klasöründeki tüm sıkıştırılmış eşlenmiş okuma çifti dosyaları için samtools görünüm işlevini çalıştırın. (ii) Filtrelenmiş bam dosyalarını parçaların adlarına göre sıralamak veya aynı dizin içinde koordinat oluşturmak için samtools sıralama işlevini çalıştırın. (iii) ~/Desktop/GSE126612/log/filter-sort-bam dizinindeki bir giriş bam dosyası başına bir günlük dosyası yazın.
  4. Çalıştırmanın tamamlanmasından sonra, günlük dosyalarını dikkatlice gözden geçirin. Günlük dosyalarında herhangi bir hata mesajı varsa, hatayı düzeltin ve kabuk komut dosyasını yeniden çalıştırmayı deneyin. Sorunu çözmek için herhangi bir sorun varsa, Easy Shells CUTnRUN github sorunları web sayfasını (https://github.com/JunwooLee89/Easy-Shells_CUTnRUN/issues) kullanarak yardım isteyin.
    NOT: Parçaların adlarına göre sıralanan sonuçta elde edilen bam dosyaları (çıktı), parça BED ve ham okuma sayıları bedGraph dosyaları oluşturmak için giriş dosyaları olarak işlev görecektir. Koordinata göre sıralanan bam dosyaları, parça BEDPE dosyaları oluşturmak için giriş dosyaları olarak işlev görür. Tüm BED, bedGraph ve BEDPE, aşağı akış analizinde tepe çağrısı ve görselleştirme için kullanılacaktır. Kanonik kromozom bölgeleri (chr1 ~ 22, chrX, chrY ve chrM), genel açıklamalı kara liste bölgeleri23 ve TA tekrar bölgeleri18 için tüm açıklama yatağı dosyaları ~ / Masaüstü / Easy-Shells_CUTnRUN / kara liste dizininde bulunur. Gerekirse, ek kara liste dosyaları eklemek için bu dizini kullanın. Bam dosyalarının yolunu ve adını değiştirerek diğer eşlenmiş okuma çiftleri bam dosyaları için aynı işlevleri gerçekleştirmek üzere bu kabuk komut dosyasını kullanın. Bu işlevler hakkında daha fazla açıklama için terminalde samtools view --help ve samtools sort --help yazın.

9. Eşlenmiş okuma çiftlerini BEDPE, BED ve ham okuma sayıları bedGraph dosyalarına dönüştürün

  1. Terminali açın ve aktif terminaldeki varsayılan kabuğu kontrol etmek için echo $SHELL yazın. Bash kabuğu geçerli terminalde varsayılan kabuksa, kullanıcılar terminalde aşağıdakileri görebilir: /path/to/bash (veya /bin/bash gibi benzer bir mesaj).
  2. Varsayılan kabuk Bash değilse, terminale chsh -s $(which bash) yazarak Bash kabuğunu varsayılan kabuk olarak ayarlayın. Terminal varsayılan olarak Bash kabuğunu kullanıyorsa, bu adımı atlayın.
  3. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_08_bam-to-BEDPE-BED-bedGraph.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu komut dosyası: (i) Koordinata göre sıralanmış bam dosyalarını, parça uzunlukları 1kb'den kısa olan parça BEDPE dosyalarına dönüştürmek için macs3 filterdup ve awk işlevini çalıştırın ve BEDPE dosyalarını ~ / Desktop / GSE126612 / BEDPE içine kaydedin. (ii) Bir günlük dizini (~/Desktop/GSE126612/log/bam-to-BEDPE) oluşturun ve eşlenen okuma parçaları dosyası başına bir günlük dosyası yazın. (iii) Parça adlarına göre sıralanmış bam dosyalarını, parça uzunlukları 1 kb'den kısa olan parça BED dosyalarına dönüştürmek için bedtools bamtobed ve awk, cut, sort işlevlerini çalıştırın. (iv) Bir klasör oluşturun (~/Desktop/GSE126612/bam-to-bed) ve parça BED dosyalarını bam-to-bed klasörüne kaydedin. (v) Eşlenen okuma parçaları BED dosyasını bir günlük dizinine (~/Desktop/GSE126612/log/bam-to-bed) bir günlük dosyası yazın. (vi) Tek bir klasördeki (~/Desktop/GSE126612/bedGraph) parça BED dosyalarını kullanarak ham okuma sayıları bedGraph dosyaları oluşturmak için bedtools genomecov işlevini yürütün.
  4. Çalıştırmanın tamamlanmasından sonra, günlük dosyalarını dikkatlice kontrol edin. Sorunu çözmek için herhangi bir sorun varsa, Easy Shells CUTnRUN github sorunları web sayfasını (https://github.com/JunwooLee89/Easy-Shells_CUTnRUN/issues) kullanarak yardım isteyin.
    NOT: Çıktı ham okuma sayıları bedGraph dosyaları, bölüm 12'de normalleştirme seçeneği ve bölüm22'da ölçeklendirilmiş kesirli okuma sayısı (SFRC) normalizasyonu 10 ile SEACR tepe arayan programı için giriş dosyaları olarak kullanılacaktır. Parça BED dosyaları, negatif Kontrol (SRPMC) normalleştirmesinde 24,25 negatif Kontrol (SRPMC) normalleştirmesindeeşlenmiş okumalar için giriş dosyaları olarak işlev görecektir 10.To yalnızca kromatinle ilişkili faktörlerin CUT&RUN verileri için kısa parçaları (>100 bp) yakalayın, bu komut dosyasındaki parça filtreleme adımını değiştirin ve normalleştirme adımına devam edin. Aynı numune içindeki kısa ve normal boyutlu fragmanlar arasındaki CUT&RUN sinyallerini karşılaştırmak için, SFRC normalizasyonu, yalnızca kısa fragmanların yakalanmasından kaynaklanan potansiyel aşağı örnekleme etkisini azaltmak için yardımcı olabilir. Bam ve bed dosyalarının yolunu ve ad biçimini değiştirerek diğer eşleştirilmiş uçlu sıralanmış sıralanmış bam dosyaları için aynı işlemleri gerçekleştirmek üzere bu kabuk komut dosyasını kullanın.

10. Ham okuma sayılarını bedGraph dosyalarını normalleştirilmiş bedGraph ve bigWig dosyalarına dönüştürme

  1. Terminali açın ve aktif terminaldeki varsayılan kabuğu kontrol etmek için echo $SHELL yazın. Bash kabuğu geçerli terminalde varsayılan kabuksa, kullanıcılar terminalde aşağıdakileri görebilir: /path/to/bash (veya /bin/bash gibi benzer bir mesaj).
  2. Varsayılan kabuk Bash değilse, terminale chsh -s $(which bash) yazarak Bash kabuğunu varsayılan kabuk olarak ayarlayın. Terminal varsayılan olarak Bash kabuğunu kullanıyorsa, bu adımı atlayın.
  3. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_09_normalization_SFRC.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu komut dosyası şu şekilde yazılmıştır: (i) ~/Desktop/GSE126612/bedGraph içinde ham okuma sayıları bedGraph dosyalarını kullanarak SFRC normalleştirilmiş bedGraph dosyaları oluşturmak için awk işleviyle for-loop'u çalıştırın. (ii) ~/Desktop/GSE126612/bigWig içinde SFRC normalleştirilmiş bedGraph dosyalarının sıkıştırılmış biçimini (.bw) oluşturmak için bedGraphToBigWig işlevini yürütün. (iii) Bir çalıştırma başına SFRC hesaplaması için kullanılan normalleştirme faktörünü kaydetmek için bir günlük dosyası yazın ve günlük dosyasını ~/Desktop/GSE126612/log/SFRC içine kaydedin.
  4. Çalıştırmanın tamamlanmasından sonra günlük dosyalarını kontrol edin. Herhangi bir hata mesajı varsa, hatayı düzeltin ve kabuk komut dosyasını yeniden çalıştırın. Sorunu çözmek için herhangi bir sorun varsa, Easy Shells CUTnRUN github sorunları web sayfasını (https://github.com/JunwooLee89/Easy-Shells_CUTnRUN/issues) kullanarak yardım isteyin.
    NOT: Ölçeklendirilmiş kesirli okuma sayısı normalleştirmesi, GSE126612 CUT&RUN veri kümesininorijinal yayını 22'de kullanılmıştır. Bin i'deki normalleştirmenin formülü aşağıdaki gibidir:
    figure-protocol-25727
    Bu normalleştirme yöntemi, negatif kontrol (örneğin, IgG numunesi) veya spike-in kontrolü ile normalleştirmeyi içermediğinden, bu yaklaşım, numuneler arasındaki genom çapında sinyal farkını gözlemlemek için ideal olmayabilir. Bununla birlikte, bu yöntem teorik olarak diğer toplam okuma sayılarına dayalı normalleştirmeye (örneğin, Milyon Başına Sayı) benzer olduğundan, örnekler arasındaki yerel sinyal farkını gözlemlemek yeterince iyi olacaktır.
  5. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_09_normalization_SRPMC.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu komut dosyası şunları yapacaktır: (i) ~/Desktop/GSE126612/bedGraph içinde parça BED dosyalarını kullanarak ~/Desktop/GSE126612/bam-to-bed içinde SRPMC normalleştirilmiş bedgraph dosyaları oluşturmak için bedtools genomecov işleviyle for döngüsü çalıştırın. (ii) ~/Desktop/GSE126612/log/SRPMC içinde bir çalıştırma başına SRPMC normalleştirmesi için kullanılan normalleştirme faktörlerini kaydetmek için bir günlük dosyası yazın. (iii) Normalleştirilmiş bedGraph dosyalarının sıkıştırılmış biçimini (.bw) oluşturmak için bedGraphToBigWig işlevini yürütün ve normalleştirilmiş bigWig dosyalarını ~/Desktop/GSE126612/bigWig klasörüne kaydedin.
  6. Çalıştırmanın tamamlanmasından sonra, günlük dosyalarını dikkatlice gözden geçirin. Günlük dosyalarında herhangi bir hata mesajı varsa, hatayı düzeltin ve kabuk komut dosyasını yeniden çalıştırın. Sorunu çözmek için herhangi bir sorun varsa, Easy Shells CUTnRUN github sorunları web sayfasını (https://github.com/JunwooLee89/Easy-Shells_CUTnRUN/issues) kullanarak yardım isteyin.
    NOT: SRPMC normalleştirme formülü, RPM (Milyon eşlenmiş okuma başına okuma) normalleştirme faktörü, RPS (Spike-in okuma Başına Okuma Oranı) ve24,25 kontrol için bağıl sinyal oranını birleştirerek hem negatif kontrol (örneğin IgG numunesi) hem de spike-in kontrolü ile gerçek numune okuma sayılarını normalleştirmek için geliştirilmiştir. RPS'nin tanımı aşağıdaki gibidir:
    figure-protocol-28021
    Hem gerçek numune hem de negatif kontrol numunesi için RPS uygulanarak, gerçek numune için kontrol edilecek bağıl sinyal oranı (RS) aşağıdaki gibi hesaplanabilir:
    figure-protocol-28279
    Ve RPM normalleştirme faktörünün (RPM:NF) tanımı aşağıdaki gibidir:
    figure-protocol-28442
    Buradan, RS ve RPM:NF'yi bir araya getirerek SRPMC normalleştirme faktörü (SRPMC:NF) ortaya çıktı:
    figure-protocol-28636
    Ve bu formül aşağıdaki gibi basitleştirilebilir:
    figure-protocol-28780
    Bu nedenle, SRPMC yöntemi, (1) kontrol ve örnek arasındaki ani okuma oranına ve (2) RPM normalleştirilmiş kontrol okumalarına göre okumaları normalleştirir. Bu normalleştirme faktörü, ani okumaları dikkate aldığından ve kontrol okumalarını numuneler arasında karşılaştırılabilir hale getirdiğinden, bu yöntem, numuneler arasındaki genom çapındaki farkı gözlemlemek ve farklı parti deneylerinde gerçek numunelerin ve kontrollerin toplam okumalarında parti etkisini azaltmak için uygun olacaktır. Bu normalleştirilmiş bedGraph dosyaları, bölüm 11'de SEACR kullanarak tepe noktalarını çağırmak için girdi dosyaları haline gelecektir. Ve bu normalleştirilmiş bigWig dosyaları, IGV aracılığıyla loci görselleştirmede ve Deeptools aracılığıyla ısı haritası ve ortalama çizim oluşturmada kullanılacaktır. Veri kalitesini değerlendirmek için temsili genomik bölgelerde normalleştirilmiş bigWig dosyalarını kullanarak CUT&RUN veri kümesinin yatay modelini görselleştirmek için bir genom tarayıcısı kullanılması şiddetle tavsiye edilir. IgG kontrolüne benzeyen gürültülü arka plan sinyal desenleri görüntüleyen CUT&RUN örneklerinin, aşağı akış analizleri için çıkarılması uygun olabilir. Hem giriş hem de çıkış yatağı ve bedgraph dosyalarının yolunu ve dosya adlarını değiştirerek diğer okuma bed dosyalarını ve ham okuma sayıları bedGraph dosyalarını normalleştirmek için bu kabuk komut dosyalarını kullanın. Bu komut dosyasındaki faktörleri ve formülü değiştirerek diğer normalleştirme hesaplamalarını uygulamak için bu komut dosyalarını düzenleyin.

11. Parça boyutu dağılımını doğrulama

  1. Terminali açın ve aktif terminaldeki varsayılan kabuğu kontrol etmek için echo $SHELL yazın. Bash kabuğu geçerli terminalde varsayılan kabuksa, kullanıcılar terminalde aşağıdakileri görebilir: /path/to/bash (veya /bin/bash gibi benzer bir mesaj).
  2. Varsayılan kabuk Bash değilse, terminale chsh -s $(which bash) yazarak Bash kabuğunu varsayılan kabuk olarak ayarlayın. Terminal varsayılan olarak Bash kabuğunu kullanıyorsa, bu adımı atlayın.
  3. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_10_insert-size-analysis.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu komut dosyası şu şekilde yazılmıştır: (i) Ekleme boyutu dağılımını belirlemek için ~/Desktop/GSE126612/filtered-bam klasöründeki eşlenmiş okuma çiftleri bam dosyalarını kullanarak CollectInsertSizeMetrics işlevini picard.jar çalıştırın. (ii) Bir klasör oluşturun (~/Desktop/GSE126612/insert-size-distribution) ve ekleme boyutu dağıtım analizi sonuçlarını oluşturulan klasöre kaydedin. (iii) ~/Desktop/GSE126612/log/insert-size-distribution klasöründeki bir giriş bam dosyası başına bir günlük dosyası yazın.
  4. Çalıştırmanın tamamlanmasından sonra, günlük dosyalarını dikkatlice kontrol edin. Günlük dosyalarında herhangi bir hata mesajı varsa, hatayı düzeltin ve kabuk komut dosyasını yeniden çalıştırmayı deneyin. Sorunu çözmek için herhangi bir sorun varsa, Easy Shells CUTnRUN github sorunları web sayfasını (https://github.com/JunwooLee89/Easy-Shells_CUTnRUN/issues) kullanarak yardım isteyin.
    NOT: Genel olarak, CUT & RUN numuneleri için kesici uç boyutu analizi (Çıktı), mono- (100-300 bp) ve di- (300-500 bp) nükleozomal boyut aralıklarında ana zirveleri gösterir. Teknik hatalar/sınırlamalar (CUT&RUN numune hazırlama sırasında MNaz'ın aşırı/az sindirimi veya kütüphane hazırlama sırasında yanlış boyut seçimi gibi) tri-nükleozomal (500-700 bp) ile aynı veya daha büyük ve subnükleozomal (<100 bp) fragmanlarla aynı veya daha kısa zenginleşmeye neden olabilir. Bazen uzun (>500 bp) ve kısa fragmanların (<100 bp) zenginleşmesiyle mono-nükleozomal boyut zirvelerinin olmaması, ıslak laboratuvar aşamasında seçilen kütüphane boyutu seçim aralıklarına veya düşük dizileme derinliğine bağlı olabilir. İşlenmiş CUT&RUN örneklerinin kalitesini netleştirmek için dizileme derinliğini ('toplam dizilenmiş bazlar' / 'toplam referans genom boyutu'), bölüm 10'daki normalleştirilmiş okuma sayımlarını bigWig dosyalarını kullanarak genomik manzaraya genel bakışı ve kesici uç boyutu dağılım modelini birlikte karşılaştırın. Histogramlardaki kesikli çizgiler, x eksenindeki değerden daha büyük veya ona eşit bir ekleme boyutuna sahip okumaların 'kümülatif kesrini' temsil eder. Bu kesikli çizgi, giriş eşlenmiş okuma dosyasındaki ekleme boyutlarının dağılımının tanımlanmasını sağlar. X ekseni boyunca ilerleme, artan kesici uç boyutuyla ilişkilidir. Kesikli çizgi, en az kesişen x ekseni konumunda belirtildiği kadar büyük bir ekleme boyutuna sahip giriş bam dosyasındaki eşlenmiş okuma çiftlerinin oranını tanımlar. Bu nedenle, yorumlama solda 1'den başlar ve tüm okumaların en küçük boyuttan daha büyük veya ona eşit bir kesici uç boyutuna sahip olduğunu gösterir ve kesici uç boyutu arttıkça 0'a doğru azalır.

12. MACS2, MACS3 ve SEACR kullanarak tepe noktalarını arama

  1. Terminali açın ve aktif terminaldeki varsayılan kabuğu kontrol etmek için echo $SHELL yazın. Bash kabuğu geçerli terminalde varsayılan kabuksa, kullanıcılar terminalde aşağıdakileri görebilir: /path/to/bash (veya /bin/bash gibi benzer bir mesaj).
  2. Varsayılan kabuk Bash değilse, terminale chsh -s $(which bash) yazarak Bash kabuğunu varsayılan kabuk olarak ayarlayın. Terminal varsayılan olarak Bash kabuğunu kullanıyorsa, bu adımı atlayın.
  3. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_11_peak-calling_MACS.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu komut dosyası şu şekilde yazılmıştır: (i) Tepe noktalarını çağırmak ve tepe çağrı sonuçlarını çıktı dizinlerine (~/Desktop/GSE126612/MACS2 ve ~/Desktop/GSE126612/MACS3) kaydetmek için parça BEDPE dosyalarını kullanarak IgG kontrolü olsun ve olmasın macs2 callpeak işlevlerini çalıştırın. (ii) Bu tepe çağrılarının günlüğünü metin dosyası olarak günlük dizinine yazın (~/Desktop/GSE126612/log/MACS2 ve ~/Desktop/GSE126612/log/MACS3)
  4. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_11_peak-calling_SEACR.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu komut dosyası şu şekilde yazılmıştır: (i) IgG kontrolü olsun ve olmasın, tepe noktalarını çağırmak için ham okuma sayıları bedGraph ve normalleştirilmiş bedGraph dosyalarını kullanarak sıkı ve rahat seçeneklerle SEACR_1.3.sh komut dosyasını çalıştırın. (ii) Çıktı dizini oluşturun (~/Desktop/GSE126612/SEACR-peaks) ve tepe çağrı sonuçlarını SEACR ile kaydedin. (iii) Bu tepe çağrılarının günlüğünü metin dosyası olarak günlük dizinine (~/Desktop/GSE126612/log/SEACR) yazın.
  5. Çalışan kabuk komut dosyalarının tamamlanması tamamlandıktan sonra, günlük dosyalarını dikkatlice kontrol edin. Günlük dosyalarında herhangi bir hata mesajı varsa, önce hatayı düzeltin. Bazı programlar, IgG kontrol seçeneği ile IgG kontrol örneği için tepe noktalarını birlikte çağırmayabilir, bu nedenle, IgG kontrol seçeneği ile IgG kontrol örneği ile ilgili hata mesajını atlayın. Sorunu çözmek için herhangi bir sorun varsa, Easy Shells CUTnRUN github sorunları web sayfasını (https://github.com/JunwooLee89/Easy-Shells_CUTnRUN/issues) kullanarak yardım isteyin.
    NOT: Bu iki kabuk komut dosyası, çeşitli seçeneklerle üç tepe çağıran (MACS2, MACS3 ve SEACR) kullanarak CUT&RUN örnekleri için tepe çağrısı gerçekleştirir: IgG kontrol seçeneği olan/olmayan, ham okuma sayılarını kullanma tepe çağıranın normalleştirme seçeneğine sahip bedGraph dosyaları veya normalleştirilmiş okuma sayıları, tepe çağıranın normalleştirme seçeneği olmayan bedGraph dosyaları ve sıkı ve rahat SEACR tepe çağrısı seçenekleri. Tepe çağrısı çıktı dosyaları doğrudan aşağı akış analizlerinde kullanılmak için yeterli olmadığından, Easy Shells CUTnRUN, kromozom, başlangıç, bitiş ve tepe noktalarının adını içeren yeni tepe dosyaları oluşturmak için bu tepe çıktı dosyalarını işlemek için bir komut dosyası içerir. Yoğun tepe arama yaklaşımları sayesinde, Easy Shells CUTnRUN, üç tepe arayan arasında çağrılan tepe noktalarını karşılaştırarak bir kullanıcının CUT & RUN projesi için en uygun tepe arama programını seçme fırsatı sunar. Ek olarak, bu CUT&RUN analiz hattı, bir kullanıcının CUT&RUN projesi için en uygun tepe çağrı seçeneklerini seçme fırsatı da sağlar. Bu karşılaştırmalar Venn diyagramı ve ısı haritası ve ortalama çizim olarak görselleştirme ile yapılacaktır.

13. Çağrılan tepe yatağı dosyaları oluşturma

  1. Terminali açın ve aktif terminaldeki varsayılan kabuğu kontrol etmek için echo $SHELL yazın. Bash kabuğu geçerli terminalde varsayılan kabuksa, kullanıcılar terminalde aşağıdakileri görebilir: /path/to/bash (veya /bin/bash gibi benzer bir mesaj).
  2. Varsayılan kabuk Bash değilse, terminale chsh -s $(which bash) yazarak Bash kabuğunu varsayılan kabuk olarak ayarlayın. Terminal varsayılan olarak Bash kabuğunu kullanıyorsa, bu adımı atlayın.
  3. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_12_make-peak-bed.sh yazın veya kabuk betik dosyasını terminale sürükleyin ve girin.
    NOT: Bu komut dosyası şu şekilde yazılmıştır: (i) İki tür SEACR tepe yatağı dosyası oluşturmak için ~/Desktop/GSE126612/SEACR klasöründeki yatak dosyalarını kullanarak awk işlevini çalıştırın ~/Desktop/GSE126612/peak-bed_SEACR klasörü. Tüm tepe yatağı dosyaları, her tepe noktasının başlangıcını ve bitişini içerir ve odaklanmış tepe yatağı dosyaları, her tepe noktasındaki en yüksek sinyal kutusunun başlangıcını ve yatağını içerir. (ii) ~/Desktop/GSE126612/MACS2 ve ~/Desktop/GSE126612/MACS3 klasörlerindeki _peaks.xls dosyalarını kullanarak awk işlevini çalıştırın ve ~/Desktop/GSE126612/peak-bed_MACS2 ve ~/Desktop/GSE126612/peak-bed_MACS3 klasörlerinde MACS2 ve MACS3 tarafından çağrılan her zirvenin başlangıcını ve bitişini içeren tüm tepe yatağı dosyaları oluşturun. (iii) ~ / Masaüstü / GSE126612 / MACS2 ve ~ / Masaüstü / GSE126612 / MACS3 klasörlerindeki _summits.bed dosyalarını kullanarak awk işlevini çalıştırın ve her zirvedeki en önemli bölmenin başlangıcını ve sonunu içeren odaklanmış tepe yatağı dosyaları oluşturun. (iv) Günlük dosyaları ~/Desktop/GSE126612/log/peak-bed klasörüne metin dosyası biçiminde yazılır.
  4. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_13_filter-peaks.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu komut dosyası şu şekilde yazılmıştır: (i) IgG kontrol tepe noktaları ile çakışan tepe noktalarını kaldırmak için IgG kontrol seçeneği olmadan çağrılan tepe yatak dosyalarını kullanarak bedtools kesişme işlevini çalıştırın. (ii) Filtrelenmiş tepe yatağı dosyaları ~/Desktop/GSE126612/peak-bed-filtered_MACS2, ~/Desktop/GSE126612/peak-bed-filtered_MACS3 ve ~/Desktop/GSE126612/peak-bed-filtered_SEACR klasörlerine kaydedilir. (iii) ~/Desktop/GSE126612/log/filter-peaks klasöründe log_filter-peaks.txt bir günlük dosyası oluşturulur.
  5. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_14_cat-merge-peak-bed_MACS.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu komut dosyası şu şekilde yazılmıştır: (i) Kopyaların MACS2 ve MACS3 tüm tepe yatağı dosyalarını tek bir tepe yatağı dosyası olarak birleştirmek için cat ve sıralama işlevlerini çalıştırın ve birleştirilmiş tepe yatağı dosyasını ~/Desktop/GSE126612/bed-for-comparison klasöründe sıralayın. (ii) Birbiriyle örtüşen tepe noktalarını birleştirmek için birleştirilmiş tüm tepe yatağı dosyalarını kullanarak yatak araçları birleştirme işlevini çalıştırın. (iii) ~/Desktop/GSE126612/log/cat-merged-peak-bed günlük klasörüne bir günlük dosyası log_cat-merged-peak-bed_MACS.txt yazılır.
  6. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_14_cat-merge-peak-bed_SEACR.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu komut dosyası şu şekilde yazılmıştır: (i) Replikaların SEACR tüm tepe yatağı dosyalarını tek bir tepe yatağı dosyası olarak birleştirmek için cat ve sıralama işlevlerini çalıştırın ve birleştirilmiş tepe yatağı dosyasını ~/Desktop/GSE126612/bed-for-comparison klasöründe sıralayın. (ii) Birbiriyle örtüşen tepe noktalarını birleştirmek için birleştirilmiş tüm tepe yatağı dosyalarını kullanarak yatak araçları birleştirme işlevini çalıştırın. (iii) ~/Desktop/GSE126612/log/cat-merged-peak-bed günlük klasörüne bir günlük dosyası log_cat-merged-peak-bed_SEACR.txt yazılır.
  7. Kabuk betiklerini çalıştırma işlemi tamamlandıktan sonra günlük dosyalarını dikkatlice gözden geçirin. Günlük dosyalarında herhangi bir hata mesajı varsa, hatayı düzeltin ve komut dosyalarını yeniden çalıştırın. Sorunu çözmek için herhangi bir sorun varsa, Easy Shells CUTnRUN github sorunları web sayfasını (https://github.com/JunwooLee89/Easy-Shells_CUTnRUN/issues) kullanarak yardım isteyin.
    NOT: Tüm tepe bölgeleri tepe yatağı dosyaları, tepe arama seçenekleri, tepe arama yöntemleri, kopyalar ve zirve bölgelerine yakın genomik manzara gözlemleri arasındaki benzerliği karşılaştırmak için Venn diyagramı analizinin girdi dosyaları olarak kullanılacaktır. Birleştirilmiş tüm tepe bölgeleri tepe yatağı dosyaları, derin araçlar kullanılarak Temel bileşen (PC) analizi ve Pearson katsayısı korelasyon analizi için kullanılacaktır. Odaklanmış tepe yatağı dosyaları, Deeptools kullanılarak Isı Haritası ve ortalama arsa analizi için kullanılacaktır.

14. Pearson korelasyonu ve Temel bileşen (PC) analizi kullanılarak replikasyonlar arasındaki benzerliğin doğrulanması.

  1. Terminali açın ve aktif terminaldeki varsayılan kabuğu kontrol etmek için echo $SHELL yazın. Bash kabuğu geçerli terminalde varsayılan kabuksa, kullanıcılar terminalde aşağıdakileri görebilir: /path/to/bash (veya /bin/bash gibi benzer bir mesaj).
  2. Varsayılan kabuk Bash değilse, terminale chsh -s $(which bash) yazarak Bash kabuğunu varsayılan kabuk olarak ayarlayın. Terminal varsayılan olarak Bash kabuğunu kullanıyorsa, bu adımı atlayın.
  3. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_15_correlation_plotCorrelation.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu komut dosyası şu şekilde yazılmıştır: (i) Koordinata göre sıralanmış replikaların bam dosyalarını kullanarak multiBamSummary BED-file işlevini çalıştırın ve Masaüstü/GSE126612/deeptools_multiBamSummary klasöründe Pearson korelasyon analizi için matris dosyaları oluşturmak üzere CTCF, H3K27Ac ve RNAPII-S5P için birleştirilmiş tüm tepe yatak dosyalarını kullanın. (ii) Pearson korelasyon katsayısı hesaplaması ve ısı haritası kümelemesi gerçekleştirmek için matris dosyalarını kullanarak plotCorrelation işlevini çalıştırın ve sonucu ~/Desktop/GSE126612/deeptools_plotCorrelation klasörüne kaydedin. (iii) ~/Desktop/GSE126612/log/correlation klasörüne log_plotCorrelation.txt bir günlük dosyası yazın.
  4. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_15_correlation_plotPCA.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu komut dosyası şu şekilde yazılmıştır: (i) Koordinata göre sıralanmış bam dosyalarını kullanarak multiBamSummary BED-file işlevini çalıştırın ve tüm CTCF, H3K27ac ve RNAPII-S5P tepe noktalarını içeren birleştirilmiş tüm tepe yatak dosyalarını kullanarak Masaüstü/GSE126612/deeptools_multiBamSummary klasöründe Temel bileşen analizi (PCA) için matris dosyaları oluşturun. (ii) PCA'yı gerçekleştirmek için matris dosyalarını kullanarak plotPCA işlevini çalıştırın ve sonucu ~/Desktop/GSE126612/deeptools_plotPCA klasörüne kaydedin. (iii) ~/Desktop/GSE126612/log/correlation klasörüne log_plotPCA.txt bir günlük dosyası yazın.
  5. Kabuk komut dosyalarını çalıştırma işlemi tamamlandıktan sonra günlük dosyalarını kontrol edin. Herhangi bir hata mesajı varsa, hatayı düzeltin ve kabuk komut dosyalarını yeniden çalıştırın. Sorunu çözmek için herhangi bir sorun varsa, Easy Shells CUTnRUN github sorunları web sayfasını (https://github.com/JunwooLee89/Easy-Shells_CUTnRUN/issues) kullanarak yardım isteyin.
    NOT: Prensip olarak, uygun şekilde hazırlanmış ve işlenmiş replikalar, aynı kümeleme grubu içinde daha yüksek Pearson korelasyon katsayısı değerleri ve Temel bileşen analizinde yakın konumlandırma göstermektedir. Daha düşük bir Pearson korelasyon katsayısı gösteren ve Temel bileşen grafiğindeki diğer kopyalardan uzun mesafe gösteren herhangi bir kopya, kopyalar arasında potansiyel bir aykırı değeri temsil edebilir. Bu kabuk betiği, eşlenen tüm bam biçimleri için geçerlidir, veri okur. Projeye özel gereksinimleri karşılamak için bigwig dosyalarının yolunu ve dosya adını değiştirin.

15. Venn şemasını kullanarak replikasyonlar, tepe arama yöntemleri ve seçenekler arasındaki benzerliğin doğrulanması

  1. Terminali açın ve aktif terminaldeki varsayılan kabuğu kontrol etmek için echo $SHELL yazın. Bash kabuğu geçerli terminalde varsayılan kabuksa, terminalde /path/to/bash (örneğin, /bin/bash) gibi bir şey olabilir.
  2. Varsayılan kabuk Bash değilse, terminale chsh -s $(which bash) yazarak Bash kabuğunu varsayılan kabuk olarak ayarlayın. Terminal varsayılan olarak Bash kabuğunu kullanıyorsa, bu adımı atlamayı düşünün
  3. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_16_venn-diagram_methods.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu komut dosyası şu şekilde yazılmıştır: (i) Çeşitli seçenekler tarafından çağrılan tepe noktaları arasındaki örtüşmeleri bulmak için tüm tepe bölgesi tepe yatağı dosyalarını kullanarak müdahale venn işlevini çalıştırın (IgG kontrol seçeneği olan/olmayan, normalleştirme ile/olmadan ve SEACR için sıkı/rahat tepe arama seçenekleri). (ii) Bir klasör oluşturun (~/Desktop/GSE126612/intervene_methods) ve Venn şeması analiz sonuçlarını bu klasöre kaydedin. (iii) ~/Desktop/GSE126612/log/intervention klasörüne log_intervene_methods.txt bir günlük dosyası yazın.
  4. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_16_venn-diagram_replicates.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu komut dosyası şu şekilde yazılmıştır: (i) Kopyaların tepe noktaları arasındaki örtüşmeleri bulmak için tüm tepe bölgesi tepe yatağı dosyalarını kullanarak müdahale venn işlevini çalıştırın. (ii) Bir klasör (~/Desktop/GSE126612/intervene_replicates) oluşturun ve Venn şeması analiz sonuçlarını bu klasöre kaydedin. (iii) ~/Desktop/GSE126612/log/intervention klasörüne log_intervene_replicates.txt bir günlük dosyası yazın.
  5. Kabuk betiklerini çalıştırmayı bitirdikten sonra günlük dosyalarını gözden geçirin. Herhangi bir hata mesajı varsa, hatayı düzeltin ve kabuk komut dosyalarını yeniden çalıştırın. Easy Shells CUTnRUN analiz hattının kullanımında herhangi bir sorun varsa, Easy Shells CUTnRUN github sorunları web sayfasında (https://github.com/JunwooLee89/Easy-Shells_CUTnRUN/issues) yardım isteyin.
    NOT: Bu Venn şeması analiz sonuçları, aşağı akış analizi için yüksek tekrarlanabilirliğe sahip en uygun tepe arama seçeneklerini, yöntemlerini ve replikalarını seçmek için fikir verir. Diğer tepe arama yöntemleri ve seçenekleri ile iyi bir örtüşme ile en yüksek aranan tepe numaralarını gösteren tepe arama seçeneklerinin ve yöntemlerinin seçilmesi tercih edilebilir.

16. Tepe noktaları olarak adlandırılan görselleştirmek için ısı haritalarını ve ortalama grafikleri analiz etmek.

  1. Terminali açın ve aktif terminaldeki varsayılan kabuğu kontrol etmek için echo $SHELL yazın. Bash kabuğu geçerli terminalde varsayılan kabuksa, terminalde /path/to/bash (örneğin, /bin/bash) gibi bir şey olabilir.
  2. Varsayılan kabuk Bash değilse, terminale chsh -s $(which bash) yazarak Bash kabuğunu varsayılan kabuk olarak ayarlayın. Terminal varsayılan olarak Bash kabuğunu kullanıyorsa, bu adımı atlamayı düşünün
  3. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_27_plotHeatmap_focused.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    NOT: Bu komut dosyası şu şekilde yazılmıştır: (i) ~/Desktop/GSE126612/deeptools_computeMatrix klasöründeki odaklanmış tepe noktalarının merkezinde normalleştirilmiş okuma sayıları matrisleri oluşturmak için normalleştirilmiş bigWig dosyalarını ve odaklanmış tepe yatağı dosyalarını kullanarak computeMatrix referans noktası işlevini çalıştırın. (ii) Odaklanılan tepe konumlarında normalleştirilmiş okuma sayıları dağılım modelini görselleştiren ısı haritaları ve ortalama grafikler oluşturmak için normalleştirilmiş okuma sayıları matrisini kullanarak plotHeatmap işlevini çalıştırın. (iii) Bir klasör oluşturun (~/Desktop/GSE126612/deeptools_plotHeatmap) ve plotHeatmap çıktı dosyalarını bu klasöre kaydedin. (iv) ~/Desktop/GSE126612/log/plotHeatmap klasörüne log_plotHeatmap_focused.txt bir günlük dosyası yazın.
  4. Terminale ~/Desktop/Easy-Shells_CUTnRUN/scripts/Script_27_plotHeatmap_whole.sh yazın veya kabuk komut dosyasını terminale sürükleyin ve girin.
    Bu komut dosyası şu şekilde yazılır: (i) ~/Desktop/GSE126612/deeptools_computeMatrix klasöründeki tüm tepe noktalarının merkezinde normalleştirilmiş okuma sayıları matrisleri oluşturmak için normalleştirilmiş bigWig dosyalarını ve tüm tepe yatağı dosyalarını kullanarak computeMatrix referans noktası işlevini çalıştırın. (ii) Tüm tepe konumlarında normalleştirilmiş okuma sayıları dağılım modelini görselleştiren ısı haritaları ve ortalama grafikler oluşturmak için normalleştirilmiş okuma sayıları matrisini kullanarak plotHeatmap işlevini çalıştırın. (iii) Bir klasör oluşturun (~/Desktop/GSE126612/deeptools_plotHeatmap) ve plotHeatmap çıktı dosyalarını bu klasöre kaydedin. (iv) ~/Desktop/GSE126612/log/plotHeatmap klasörüne log_plotHeatmap_whole.txt bir günlük dosyası yazın.
  5. Kabuk betiklerini çalıştırmayı bitirdikten sonra günlük dosyalarını gözden geçirin. Herhangi bir hata mesajı varsa, hatayı düzeltin ve kabuk komut dosyalarını yeniden çalıştırın. Easy Shells CUTnRUN analiz hattının kullanımında herhangi bir sorun varsa, Easy Shells CUTnRUN github sorunları web sayfasında (https://github.com/JunwooLee89/Easy-Shells_CUTnRUN/issues) yardım isteyin.
    NOT: İdeal olarak, MACS2/3 tepe noktalarının tepe tepe konumları ve SEACR tepe noktalarının odaklanmış tepe konumları, grafiklerin merkezinde keskin ve odaklanmış bir sinyal dağılımı sergiler. Ancak, tepe çağırma algoritması CUT&RUN verileri için düzgün çalışmazsa, grafiklerde daha az odaklanmış 'gürültülü' sinyal dağılımı görünebilir. Bu nedenle, çağrılan tepe noktalarının sayısını ve çıkış grafiklerinin tepe sinyal dağılım modellerini kullanmak, aşağı akış tepe açıklamasını içeren daha fazla CUT & RUN analizi için tepe geçerliliğinin belirlenmesine rehberlik edecektir.

Sonuçlar

Kalite ve adaptör kırpma, yüksek sıralama kalitesiyle okumaları korur
Yüksek verimli sıralama teknikleri, okumalarda dizi 'mutasyonları' gibi sıralama hataları oluşturmaya eğilimlidir. Ayrıca, kitaplık hazırlığı sırasında bağdaştırıcının zayıf çıkarılması nedeniyle sıralama bağdaştırıcısı dimerleri, sıralama veri kümelerinde zenginleştirilebilir. Okuma mutasyonları, uygun eşleme için gerekenden daha kısa okuma üretimi ve a...

Tartışmalar

Kromatin üzerindeki protein doluluğunu haritalama yeteneği, kromatin biyolojisi alanında mekanik çalışmalar yürütmek için esastır. Laboratuvarlar kromatin profili oluşturmak için yeni ıslak laboratuvar tekniklerini benimsedikçe, bu ıslak laboratuvar deneylerinden elde edilen sıralama verilerini analiz etme yeteneği, ıslak laboratuvar bilim adamları için ortak bir darboğaz haline gelir. Bu nedenle, biyoinformatiğe yeni başlayanların analiz darboğazının üstesin...

Açıklamalar

Yazarlar herhangi bir açıklama beyan etmemektedir.

Teşekkürler

Resimli tüm figürler BioRender.com ile oluşturulmuştur. CAI, Yumurtalık Kanseri Araştırma İttifakı Erken Kariyer Araştırmacısı Ödülü, Forbeck Vakfı Hızlandırıcı Hibesi ve Minnestoa Yumurtalık Kanseri İttifakı Ulusal Erken Teşhis Araştırma Ödülü aracılığıyla sağlanan desteği kabul eder.

Malzemeler

NameCompanyCatalog NumberComments
bedGraphToBigWigENCODEhttps://hgdownload.soe.ucsc.edu/admin/exe/Software to compress and convert readcounts bedGraph to bigWig
bedtools-2.31.1The Quinlan Lab @ the U. of Utahhttps://bedtools.readthedocs.io/en/latest/index.htmlSoftware to process bam/bed/bedGraph files
bowtie2 2.5.4Johns Hopkins Universityhttps://bowtie-bio.sourceforge.net/bowtie2/index.shtmlSoftware to build bowtie index and perform alignment
CollectInsertSizeMetrics (Picard)Broad institutehttps://github.com/broadinstitute/picardSoftware to perform insert size distribution analysis
CutadaptNBIShttps://cutadapt.readthedocs.io/en/stable/index.htmlSoftware to perform adapter trimming
Deeptoolsv3.5.1Max Planck Institutehttps://deeptools.readthedocs.io/en/develop/index.htmlSoftware to perform Pearson coefficient correlation analysis, Principal component analysis, and Heatmap/average plot analysis
FastQC Version 0.12.0Babraham Bioinformaticshttps://github.com/s-andrews/FastQCSoftware to check quality of fastq file
Intervenev0.6.1Computational Biology & Gene regulation - Mathelier grouphttps://intervene.readthedocs.io/en/latest/index.htmlSoftware to perform venn diagram analysis using peak files
MACSv2.2.9.1Chan Zuckerberg initiativehttps://github.com/macs3-project/MACS/tree/macs_v2Software to call peaks
MACSv3.0.2Chan Zuckerberg initiativehttps://github.com/macs3-project/MACS/tree/masterSoftware to call peaks
Samtools-1.21Wellcome Sanger Institutehttps://github.com/samtools/samtoolsSoftware to process sam/bam files
SEACRv1.3Howard Hughes Medial institutehttps://github.com/FredHutch/SEACRSoftware to call peaks
SRA Toolkit Release 3.1.1NCBIhttps://github.com/ncbi/sra-toolsSoftware to download SRR from GEO
Trim_Galore v0.6.10Babraham Bioinformaticshttps://github.com/FelixKrueger/TrimGaloreSoftware to perform quality and atapter trimming

Referanslar

  1. Hainer, S. J., Fazzio, T. G. High-resolution chromatin profiling using CUT&RUN. Curr Protoc Mol Biol. 126 (1), e85 (2019).
  2. Zhang, Y., et al. Model-based analysis of ChiP-Seq (MACS). Genome Biology. 9 (9), R137 (2008).
  3. Xu, S., Grullon, S., Ge, K., Peng, W. . Stem cell transcriptional networks: Methods and Protocols. , (2014).
  4. Meers, M. P., Tenenbaum, D., Henikoff, S. Peak calling by sparse enrichment analysis for cut&run chromatin profiling. Epigenetics Chromatin. 12 (1), 42 (2019).
  5. Ashburner, M., et al. Gene ontology: Tool for the unification of biology. The gene ontology consortium. Nat Genet. 25 (1), 25-29 (2000).
  6. Harris, M. A., et al. The gene ontology (GO) database and informatics resource. Nucleic Acids Res. 32 (Database issue), D258-D261 (2004).
  7. The Gene Ontology Consortium. The gene ontology resource: 20 years and still going strong. Nucleic Acids Res. 47 (D1), D330-D338 (2019).
  8. Conesa, A., et al. Blast2go: A universal tool for annotation, visualization and analysis in functional genomics research. Bioinformatics. 21 (18), 3674-3676 (2005).
  9. Carbon, S., et al. AmiGO: Online access to ontology and annotation data. Bioinformatics. 25 (2), 288-289 (2009).
  10. Eden, E., Navon, R., Steinfeld, I., Lipson, D., Yakhini, Z. Gorilla: A tool for discovery and visualization of enriched go terms in ranked gene lists. BMC Bioinformatics. 10, 48 (2009).
  11. Huang Da, W., Sherman, B. T., Lempicki, R. A. Bioinformatics enrichment tools: Paths toward the comprehensive functional analysis of large gene lists. Nucleic Acids Res. 37 (1), 1-13 (2009).
  12. Huang Da, W., Sherman, B. T., Lempicki, R. A. Systematic and integrative analysis of large gene lists using david bioinformatics resources. Nat Protoc. 4 (1), 44-57 (2009).
  13. Ge, S. X., Jung, D., Yao, R. ShinyGO: A graphical gene-set enrichment tool for animals and plants. Bioinformatics. 36 (8), 2628-2629 (2020).
  14. Tang, D., et al. SRplot: A free online platform for data visualization and graphing. PLoS One. 18 (11), e0294236 (2023).
  15. Ramírez, F., et al. Deeptools2: A next generation web server for deep-sequencing data analysis. Nucleic Acids Res. 44 (W1), W160-W165 (2016).
  16. Robinson, J. T., et al. Integrative genomics viewer. Nat Biotechnol. 29 (1), 24-26 (2011).
  17. Kent, W. J., et al. The human genome browser at ucsc. Genome Res. 12 (6), 996-1006 (2002).
  18. Yu, F., Sankaran, V. G., Yuan, G. -. C. CUT&RUNTools 2.0: A pipeline for single-cell and bulk-level CUT&RUN and CUT&Tag data analysis. Bioinformatics. 38 (1), 252-254 (2021).
  19. Zhu, Q., Liu, N., Orkin, S. H., Yuan, G. -. C. CUT&RUNTools: A flexible pipeline for CUT&RUN processing and footprint analysis. Genome Biol. 20 (1), 192 (2019).
  20. . Nf-core/cutandrun: Nf-core/cutandrun v3.2.2 iridium ibis Available from: https://github.com/nf-core/cutandrun/tree/3.2.2 (2024)
  21. Kong, N. R., Chai, L., Tenen, D. G., Bassal, M. A. A modified CUT&RUN protocol and analysis pipeline to identify transcription factor binding sites in human cell lines. STAR Protoc. 2 (3), 100750 (2021).
  22. Meers, M. P., Bryson, T. D., Henikoff, J. G., Henikoff, S. Improved CUT&RUN chromatin profiling tools. eLife. 8, e46314 (2019).
  23. Amemiya, H. M., Kundaje, A., Boyle, A. P. The encode blacklist: Identification of problematic regions of the genome. Sci Rep. 9 (1), 9354 (2019).
  24. Deberardine, M. BRgenomics for analyzing high-resolution genomics data in R. Bioinformatics. 39 (6), btad331 (2023).
  25. Deberardine, M., Booth, G. T., Versluis, P. P., Lis, J. T. The nelf pausing checkpoint mediates the functional divergence of cdk9. Nat Commun. 14 (1), 2762 (2023).
  26. Krueger, F., James, F. O., Ewels, P. A., Afyounian, E., Schuster-Boeckler, B. . FelixKrueger/TrimGalore: v0.6.7 - DOI via Zenodo. , (2021).
  27. . Easy bam downsampling Available from: https://davemcg.github.io/post/easy-bam-downsampling/ (2018)
  28. . Positionbaseddownsamplesam (picard) Available from: https://gatk.broadinstitute.org/hc/en-us/articles/360041850311-PositionBasedDownsampleSam-Picard (2020)

Yeniden Basımlar ve İzinler

Bu JoVE makalesinin metnini veya resimlerini yeniden kullanma izni talebi

Izin talebi

Daha Fazla Makale Keşfet

GenetikSay 214hedefler alt nda b l nme ve n kleaz kullanarak serbest b rakma CUT RUNprotein DNA etkile imianalizdo rulama

This article has been published

Video Coming Soon

JoVE Logo

Gizlilik

Kullanım Şartları

İlkeler

Araştırma

Eğitim

JoVE Hakkında

Telif Hakkı © 2020 MyJove Corporation. Tüm hakları saklıdır