معلومة

ماذا يحدث في كل تكرار لـ PSI-BLAST؟

ماذا يحدث في كل تكرار لـ PSI-BLAST؟


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

أفهم أن أول انفجار بلاست ينتج عنه نفس نتائج الانفجار تقريبًا. في المرة الثانية ينتج عن الانفجار المتكرر نتائج مختلفة لأنه يستخدم مصفوفة مختلفة بناءً على النتيجة الأولى.

لكني لا أفهم بالضبط كيف يتم إنشاء المصفوفة الثانية.


إضافة إلى الإجابات السابقة:

PSI-BLAST هو نوع من خوارزمية التعلم الآلي التي تستخدم نتائج المحاذاة الأولى (PSSM) لتسجيل التكرار التالي للمحاذاة. أنصحك بالرجوع إلى صفحة رف الكتب NCBI على PSI-BLAST.

يتبنى PSI-BLAST مخطط تسجيل النقاط (PSSM) الذي تم إنشاؤه بناءً على مجموعة معينة من البيانات (التسلسلات المحاذية) ، بدلاً من استخدام مصفوفة تسجيل معممة. يقوم هذا الارتجال بتحديث المعرفة السابقة للمتماثلين ويساعد على اكتشاف التسلسلات المماثلة التي لم يكن من الممكن اكتشافها بطريقة أخرى. مع التكرارات ، يستمر تحديث PSSM ، مما يجعل BLAST أكثر حساسية في العثور على المتماثلات.

كيف يتم إنشاء PSSM:

إذا تم الحفاظ على موضع في المحاذاة (أي نفس البقايا في العديد من التسلسلات) ، فإنها تحصل على درجة عالية في حين أن الموضع ذي الحفظ المنخفض يحصل على درجة منخفضة.

تعتمد النتيجة على الأعداد النسبية لبقايا في الموضع. إذا كنت تريد معرفة التفاصيل انظر هنا.


PSI-BLAST هو انفجار متكرر خاص بالموضع.

من المحتمل أن أكون بعيدًا عن عمقي هنا ، لكن ما أفهمه هو أن نتائج بحث BLAST الأول ، القياسي بشكل أساسي ، تُستخدم لإنشاء محاذاة تسلسل متعدد. ثم يتم تحويل هذه المحاذاة إلى مصفوفة تسجيل نقاط معينة (PSSM). (يُظهر إدخال ويكيبيديا المرتبط هذا لتسلسل الحمض النووي ، ولكن المبدأ هو نفسه تمامًا بالنسبة لتسلسل البروتين.) يمكن بعد ذلك استخدام هذه المصفوفة كمسبار للجولة التالية من بلاست ، ويمكن استخدام نتائج هذه المحاذاة بحكمة من أجل قم بتحسين المصفوفة ، وهكذا حتى تتلاقى النتائج.

هنا رابط لبعض الشرائح التي كتبها ستيفن ألتشول والتي تتناول الكثير من التفاصيل.


من محاضرة روس التمان (جامعة ستانفورد):

يأخذ Blast تسلسلاً كمدخل ، ويبحث في قاعدة البيانات ، ويخرج مجموعة من المحاذاة (محاذاة في المرتبة الأولى ، تليها المرتبة الثانية في المرتبة ، والثالثة ، وما إلى ذلك). ثم تأخذ تسلسلات التسجيل الأعلى (قد تستخدم القيمة E كقطع) ويمكنك إنشاء مصفوفة تسجيل خاصة بالموقع (PSSM) بناءً على تكرارات الأحماض الأمينية في جميع أعمدة هذه المحاذاة. هذا مسموح به ، لأن هناك فرصة كبيرة لأن تكون هذه التسلسلات متماثلة مع تسلسل الاستعلام ، وبالتالي فإن النظر إلى الأحماض الأمينية سيعطيك إحساسًا جيدًا بالتنوع في الموضع المسموح به في تسلسل الاستعلام الأولي. الخطوة التالية هي إعادة البحث في قاعدة البيانات للحصول على المزيد من الزيارات. لذا الآن بدلاً من البحث باستخدام تسلسل ، فأنت تبحث باستخدام ملف تعريف وتحصل على مجموعة أخرى من النتائج. يمكنك التكرار عدة مرات مما يمنحك بحثًا أكثر حساسية.


تفاعل البلمرة المتسلسل

تفاعل البلمرة المتسلسل (PCR) هي طريقة مستخدمة على نطاق واسع لعمل ملايين إلى بلايين من النسخ (نسخ كاملة أو نسخ جزئية) لعينة DNA معينة ، مما يسمح للعلماء بأخذ عينة صغيرة جدًا من الحمض النووي وتضخيمها (أو جزء منها) إلى حجم كبير كمية كافية للدراسة بالتفصيل. تم اختراع تفاعل البوليميراز المتسلسل في عام 1983 من قبل عالم الكيمياء الحيوية الأمريكي كاري موليس في شركة Cetus Corporation. إنه أمر أساسي للعديد من الإجراءات المستخدمة في الاختبارات والأبحاث الجينية ، بما في ذلك تحليل العينات القديمة من الحمض النووي وتحديد العوامل المعدية. باستخدام PCR ، يتم تضخيم نسخ كميات صغيرة جدًا من تسلسل الحمض النووي بشكل كبير في سلسلة من دورات التغيرات في درجات الحرارة. يعد تفاعل البوليميراز المتسلسل (PCR) الآن أسلوبًا شائعًا ولا غنى عنه في كثير من الأحيان يستخدم في أبحاث المختبرات الطبية لمجموعة واسعة من التطبيقات بما في ذلك البحوث الطبية الحيوية والطب الشرعي الجنائي. [1] [2]

تعتمد غالبية طرق تفاعل البوليميراز المتسلسل على التدوير الحراري. يعرض التدوير الحراري المواد المتفاعلة لدورات متكررة من التسخين والتبريد للسماح بتفاعلات مختلفة تعتمد على درجة الحرارة - على وجه التحديد ، ذوبان الحمض النووي وتكرار الحمض النووي الذي يحركه الإنزيم. يستخدم تفاعل البوليميراز المتسلسل (PCR) اثنين من الكاشفات الرئيسية - البادئات (وهي عبارة عن شظايا قصيرة من الحمض النووي ذات حبلا مفردة تُعرف باسم oligonucleotides وهي عبارة عن تسلسل مكمل لمنطقة DNA المستهدفة) وبوليميراز DNA. في الخطوة الأولى من تفاعل البوليميراز المتسلسل ، يتم فصل خيوط اللولب المزدوج للحمض النووي فيزيائيًا عند درجة حرارة عالية في عملية تسمى تمسخ الحمض النووي. في الخطوة الثانية ، يتم خفض درجة الحرارة وترتبط المواد الأولية بالتسلسل التكميلي للحمض النووي. ثم يصبح شريطا DNA قوالب لبوليميراز الحمض النووي لتجميع إنزيمي لخيط DNA جديد من النيوكليوتيدات الحرة ، وهي اللبنات الأساسية للحمض النووي. مع تقدم تفاعل البوليميراز المتسلسل ، يتم استخدام الحمض النووي المتولد في حد ذاته كقالب للتكرار ، مما يؤدي إلى تحريك تفاعل متسلسل يتم فيه تضخيم قالب الحمض النووي الأصلي بشكل كبير.

تستخدم جميع تطبيقات PCR تقريبًا بوليميراز DNA مستقر الحرارة ، مثل طق بوليميراز ، إنزيم معزول أصلاً من البكتيريا المحبة للحرارة ثيرموس أكواتيكوس. إذا كان البوليميراز المستخدم حساسًا للحرارة ، فسوف يتغير لونه تحت درجات الحرارة العالية لخطوة التمسخ. قبل استخدام طق بوليميراز ، DNA polymerase يجب أن يضاف يدويًا في كل دورة ، والتي كانت عملية مملة ومكلفة. [3]

تشمل تطبيقات هذه التقنية استنساخ الحمض النووي للتسلسل ، واستنساخ الجينات والتلاعب بها ، وبناء الطفرات الجينية للتطورات القائمة على الحمض النووي ، أو التحليل الوظيفي لتشخيص الجينات ورصد الاضطرابات الوراثية ، تضخيم الحمض النووي القديم [4] تحليل البصمات الجينية لتوصيف الحمض النووي ( على سبيل المثال ، في علم الطب الشرعي واختبار الوالدين) والكشف عن مسببات الأمراض في اختبارات الحمض النووي لتشخيص الأمراض المعدية.


المكاني: القادم Omics Frontier

يتغير التعبير الجيني في جميع أنحاء منطقة الأنسجة المأخوذة من مريض مصاب بسرطان القولون والمستقيم ويتم تحليلها باستخدام ملف التعريف المكاني الرقمي GeoMx من NanoString Technologies. حتى الآن ، جعلت GeoMX من الممكن تحليل 1800 جين باستخدام أطلس نسخ السرطان. في الآونة الأخيرة ، أعلنت NanoString عن خدمة أطلس Transcriptome الكاملة التي توفر عرضًا غير متحيز لـ 18000 جينة ترميز بروتين.

ينتقل الطب من أدوات حادة جدًا إلى جزيئات هي & # 8220 أفضل مشرط يمكن أن تحصل عليه على الإطلاق. & # 8221 هكذا يقول جورج تشيرش ، دكتوراه ، أستاذ علم الوراثة في كلية الطب بجامعة هارفارد (HMS) ، الذي لديه سجل جيد جدًا عندما يتعلق الأمر بتقييم تقنيات الجينوم الجديدة. هذا التطور ، كما يشير تشرش في فيديو معهد Wyss ، خلق الحاجة إلى أدوات المراقبة التي تسمح للباحثين & # 8220 بالرؤية على هذا المستوى العالي من الدقة والشمولية. & # 8221

تشير تشيرش إلى التطور الأخير في تقنية النسخ المكاني (المعروفة ببساطة باسم & # 8220spatial & # 8221). حتى الآن ، اقتصرت تقنيات التسلسل أحادي الخلية ، مثل تسلسل الحمض النووي الريبي (RNA-seq) ، على الخلايا المنفصلة عن الأنسجة ، أي الخلايا المستخرجة من الأنسجة الأرضية. تفقد هذه الخلايا كل المعلومات المكانية.

يعطي النسخ المكاني سياق مكاني غنيًا للتعبير الجيني. من خلال الزواج من التصوير والتسلسل ، يمكن لعلم النسخ المكاني تحديد مكان وجود نصوص معينة على الأنسجة ، مما يشير إلى مكان التعبير عن جينات معينة.

لطالما كان فهم السياق المكاني للبيولوجيا في العينات البشرية أمرًا بالغ الأهمية لفهمنا للأمراض البشرية ، كما يشير زميل تشيرتش في HMS ديفيد تينغ ، دكتوراه في الطب ، أستاذ مساعد في الطب. ويضيف أن تفسير علم الأنسجة لا يزال فنًا يجعل اختصاصي علم الأمراض التشريحي لا غنى عنه من أجل التشخيص الدقيق للمرض. لكن هذه التقنيات المكانية الجديدة ستساعد في فتح فهم أعمق لما يحدث في الأنسجة ، والذي سيكون قابلاً للتطبيق في معظم مجالات البحوث الطبية الحيوية.

باستخدام علم النسخ المكاني ، & # 8220 لا يمكنك فقط وصف ما هو موجود ، ولكن الآن يمكنك الذهاب خطوة أخرى إلى الأمام لترى كيف تتفاعل الخلايا ، & # 8221 تلاحظ Elana J.Fertig ، دكتوراه ، أستاذ مشارك في علم الأورام والرياضيات التطبيقية والإحصاء ، والهندسة الطبية الحيوية ، جامعة جونز هوبكنز.

& # 8220 اعتدنا أن نحاول القيام بذلك في بيولوجيا السرطان ، باستخدام تشريح مجهري لالتقاط الليزر وبيانات RNA-seq بالجملة ، & # 8221 يضيف Fertig ، & # 8220 عن طريق استبعاد المناطق وتنميطها. & # 8221 لكن هذه الوسائل لا تزال متوسط ​​التعبير الجيني البيانات من الخلايا الفردية ، مما يؤدي إلى فقدان المعلومات الدقيقة حول انتقالات الحالة الخلوية التي كان من الممكن استخدامها لتوضيح التفاعلات من خلية إلى أخرى.

الآن ، يمكن التقاط المعلومات السياقية التي كانت تفلت من خلال النسخ المكانية. & # 8220 لا نرى فقط مكان وجود الخلايا المناعية ، & # 8221 يشرح فيرتيج ، & # 8220 ولكن ما هي الحالات الموجودة فيها ، والتفاعل بين الورم والجهاز المناعي. & # 8221 إنه مزيج حقيقي من البيانات الخلوية والجزيئية الجينوميات التي تصر على أنها ضرورية لتحسين النتائج في بيولوجيا السرطان.

ليس غريبًا على تطوير تقنيات التسلسل الجديدة ، فقد انتقل Joe Beechem ، دكتوراه ، كبير المسؤولين العلميين ونائب الرئيس الأول للبحث والتطوير في NanoString Technologies ، من مهنة أكاديمية كبيرة إلى الصناعة منذ حوالي 20 عامًا. رائد في بعض أدوات التسلسل الأولى من الجيل التالي (NGS) ، كما يقول Beechem GEN أنه من الممتع رؤية علم الأحياء يعيد اختراع نفسه باستمرار بهذه الطرق الجديدة.

إنه يحافظ على الطريقة التي يكسر بها مجال النسخ المكانية الشعور & # 8220 متطابقة تقريبًا & # 8221 مع اندفاع بناء أدوات NGS الأولى. & # 8220 هذه المرة ، & # 8221 يعلن ، & # 8220 هو كبير - إن لم يكن أكبر. & # 8221

مكاني ، تعرف على COVID-19

يغوص الباحثون في رئيس أبحاث COVID-19 أولاً ، ويعملون بأقصى سرعة لتوضيح تأثير فيروس SARS-CoV-2 على مضيفه البشري ، مع تركيز العديد بشكل طبيعي على الرئة. لفهم التغييرات في المناطق المنفصلة من الأنسجة المضيفة ، يتجه بعض الباحثين إلى علم النسخ المكاني.

على سبيل المثال ، استخدمت مجموعة من الباحثين في مستشفى ماساتشوستس العام ، بما في ذلك Ting ، النسخ المكانية ، من بين تقنيات أخرى ، لتحليل عينات تشريح الجثث من 24 مريضًا استسلموا لـ COVID-19. يلاحظ تينج أن العمل قد وسع فهمنا لعدوى SARS-CoV-2 & # 8220 من خلال عدسة النتائج النسيجية التي حددها علماء الأمراض. & # 8221

أولاً ، حددت مجموعة تينغ موقع الفيروس باستخدام التهجين الموضعي للحمض النووي الريبي في أنسجة الرئة. باستخدام GeoMx Digital Spatial Profiler من NanoString ، تمكنت المجموعة من تحليل التغييرات النسخية والبروتينية في هذه المناطق. تتوافق النتائج مع التعبير المكاني المتميز لجينات الاستجابة للإنترفيرون وجينات نقاط التفتيش المناعية ، مما يدل على عدم التجانس داخل الرئة لعدوى SARS-CoV-2.

وفقًا لـ Ting ، كشفت البيانات عن استجابة هائلة للإنترفيرون على وجه التحديد للمناطق التي تحتوي على RNA الفيروسي SARS-CoV-2 ، مما يشير إلى أن هذه هي الاستجابة المناعية السائدة للفيروس. بالإضافة إلى ذلك ، أظهر تحليل البروتين في هذه المنطقة نفسها تنظيمًا للجزيئات المنظمة المناعية بما في ذلك PD-L1 و CTLA4 و IDO1 ، والتي يُعرف عنها أنها مثبطة للخلايا التائية في سياق السرطان.

تم نشر النتائج كطبع أولي ، & # 8220 التباين الزماني والمكاني لاستجابة المضيف للعدوى الرئوية SARS-CoV-2 ، & # 8221 على medRxiv خادم ما قبل الطباعة.

سارة وارين ، دكتوراه ، مديرة العلوم الترجمية في NanoString GEN أن GeoMX كانت في وضع جيد لدعم أبحاث COVID-19 لأن النظام الأساسي قد تم إنشاؤه بالفعل للعمل مع عينات البارافين المضمنة (FFPE) - عينات من النوع الذي يتم توفيره بواسطة تشريح COVID-19. تؤكد وارن أنه يمكن تنفيذ المجال المكاني لفهم تنوع الطرق التي يؤثر بها SARS-CoV-2 على أنظمة الأعضاء المختلفة ، وهو ، كما تؤكد ، & # 8220 شيء لا يمكن القيام به مع أي نظام أساسي آخر. & # 8221

تستخدم مجموعة أخرى من الباحثين علم النسخ المكاني لفحص أنسجة الرئة لمريض COVID-19. سلطت حديث حديث من مجموعة المصالح العلمية NIH COVID-19 (SIG) التي قدمها أفيف ريجيف ، دكتوراه ، عضو أساسي سابق في معهد برود وعين مؤخرًا رئيسًا لأبحاث Genentech والتطوير المبكر (gRED) ومقرها سان فرانسيسكو ، الضوء على مختبرها العمل على فهم العلاقة بين الفيروس والمضيف من خلال إجراء النسخ المكانية.

قدمت Regev بيانات من عينات FFPE من القصبة الهوائية والفص العلوي الأيسر من مريض COVID-19. باستخدام GeoMx لتحليل 1800 هدف من أهداف RNA ، بما في ذلك الجينات الرئيسية للخلايا المصابة بالفيروس ، تمكن فريقها من تحليل ومقارنة تعبير RNA للخلايا المصابة بـ SARS-CoV-2 مقابل الخلايا المجاورة غير المصابة.

وفقًا لريجيف ، فإن صور عينات FFPE & # 8220terrifying & # 8221 لأنها تصور مدى انتشار الفيروس بقوة ويدمر الرئتين. لكنها أشارت أيضًا إلى أن العدوى & # 8220 خاصة ببعض مناطق الرئة ، بينما تظل مناطق الرئة الأخرى على حالها. & # 8221 مثل هذه الأنماط تقدم أدلة على عدوى SARS-CoV-2 التي قد تساعد في المعركة لوقف الوباء.

كونسورتيوم والكروميوم القادم

عندما طرحت شركة 10x Genomics منصة التسلسل أحادية الخلية ، Chromium ، استمرت الشركة في سؤال عملائها عما يحتاجه العالم أحادي الخلية. من خلال التحدث إلى العملاء في اجتماعات Human Cell Atlas ، أدركت شركة 10x Genomics تمامًا الإثارة الكامنة وراء تقنية النسخ المكاني.

يقول بن هيندسون ، دكتوراه ، كبير المسؤولين العلميين ورئيس 10x Genomics GEN دفعت ملاحظات العملاء هذه الشركة إلى الاستحواذ على Spatial Transcriptomics ، وهي شركة سويدية اتخذت ما تصفه هيندسون بأنه نهج لطيف وقابل للتطوير. قامت شركة 10x Genomics بعد ذلك بدمج تقنية Spatial Transcriptomics في حل Visium Spatial Gene Expression ، وهو منتج بدأ الشحن في نوفمبر 2019. وتقول هيندسون إن التبني كان هائلاً منذ ذلك الحين ، وأن 10x Genomics يعزز Visium بحيث يمكنه استخدام الأجسام المضادة ذات العلامات الفلورية والكشف عن البروتينات.

يلاحظ Hindson أن الشيء الجميل في Visium هو أن الكثير من المعدات الكبيرة غير ضرورية. إنها مجرد شريحة مجهر ومجموعة أدوات كاشف. تحتوي الشريحة على 5000 منطقة ، يمكن لكل منها التقاط RNA من 1 إلى 10 خلايا في المرة الواحدة. يتخذ Visium أسلوباً غير متحيز لتوصيف الخلايا ، وهو أمر يقدره حقًا جون هوبكنز فيرتج.

Fertig ، التي تستخدم Visium في معمل أبحاث السرطان الخاص بها ، هي عضو في شبكة أبحاث 10x Genomics Visium Clinical Translational Research Network (CTRN). تم تشكيل المجموعة التي تم تشكيلها حديثًا (والتي لم تعقد بعد اجتماعها الأول في Zoom) عبر تخصصات مختلفة. يقول فيرتيج إنه من المثير حقًا أن يكون هناك باحثون من مختلف المجالات يركزون على تطبيق هذه التكنولوجيا في العيادة.

تشرح أن القواسم المشتركة الموجودة عبر الحقول تمكّن & # 8220 فريق العلم & # 8221 عبر التخصصات. وتضيف أن CTRN تمنح الباحثين فرصة & # 8220 للتفكير في فراغ مماثل & # 8221 وتقترح & # 8220 طرقًا جديدة لترجمة الاكتشافات البيولوجية إلى علاجات. & # 8221 تؤكد أن CTRN تعزز نموذجًا بحثيًا جديدًا. عادة ، تتمحور اتحادات البحث حول مرض شائع. ومع ذلك ، تركز شبكة CTRN على كيفية قيام تقنية شائعة بتحقيق التقدم ضد أمراض متعددة.

العمل الجماعي يجعل العمل الحلم

قد تجعل منصات GeoMX و Visium تجارب النسخ المكانية أكثر سهولة للباحثين ، لكن التحديات لا تزال قائمة. التحدي الأول هو معرفة المجالات التي يجب دراستها. يقول تينغ إنه بدون اتجاه معين إلى المنطقة أو الخلايا المراد دراستها ، يكاد يكون من المستحيل GEN، لتحديد ما إذا كانت الاختلافات تستند إلى أنواع الخلايا نفسها في مواقع مختلفة أو إذا كانت مدفوعة فقط بمجموعة واسعة من أنواع الخلايا المتأصلة في الأنسجة البشرية.

التحدي الثاني هو تفسير الكميات المتزايدة من البيانات النسخية والبروتينية. هنا ، مرة أخرى ، يتعلق التعامل مع التحدي بمعرفة المكان الذي تبحث فيه - أو طرح السؤال الصحيح. & # 8220 يتعلق الأمر أكثر بمعرفة الأبراج التي تبحث عنها في السماء ، & # 8221 يوضح تينج ، & # 8220 بدلاً من التحديق في سماء الليل بأكملها ومحاولة فهم المجرة بأكملها. & # 8221

هناك تحدٍ آخر يتمثل في تنوع المهارات اللازمة لإجراء تجربة نسخ مكانية ناجحة. هناك حاجة إلى نوع واحد من الخبرة للحصول على أفضل عينة من الجزء الأنسب للورم ، وهناك حاجة إلى نوع آخر لتنفيذ البروتوكول الطويل ، وهناك حاجة إلى نوع آخر لتفسير البيانات.

يمكن أن يؤدي تنسيق كل هذه الأنواع من الخبرات إلى تحقيق نهج علم الفريق الذي وصفه Fertig. تعترف أنه إذا كان للفرق العلمية أن تنجح ، فإن هناك حاجة إلى استثمارات كبيرة في الوقت والجهد لأن & # 8220 طبقات مختلفة من المهارات & # 8221 مطلوبة. وتضيف ، مع ذلك ، أن الاستثمارات يمكن أن تكون مجدية. تشدد على أن نهج الفريق لا يمكن أن يكون وسيلة فعالة جدًا للقيام بالعلوم فحسب ، بل يمكن أن يكون حاسمًا لتحقيق نتائج إيجابية.

لا أول ولا أخير

العديد من تقنيات النسخ المكانية قيد التطوير. يُعرف التكرار الواحد بالتسلسل الفلوري في الموقع (FISSEQ). تم اقتراحه لأول مرة في عام 2003 من قبل مختبر تشيرش ، الذي نشر إدراكًا لمفهوم FISSEQ في عام 2014 علم ورق. تم تطوير التكنولوجيا بشكل أكبر في معهد Wyss ويتم تسويقها الآن من قبل شركة Readcoor الناشئة ، التي توفر الأدوات والأدوات والبرامج المستندة إلى FISSEQ.

يمكن لتقنية التسلسل الفلوري في الموقع (FISSEQ) التي تم تطويرها في معهد Wyss تقديم صور ثلاثية الأبعاد للأهداف الجزيئية في عينات الأنسجة أو الخلايا. تسمح هذه التقنية للـ mRNA بالبقاء ثابتة في موقعها الأصلي أثناء تحويلها إلى أمبليكون الحمض النووي. بعد ذلك ، يتم الكشف عن تسلسل الحمض النووي باستخدام الأصباغ الفلورية ومجهر فائق الدقة. تسمح هذه التقنية بالتسلسل المكاني الشامل الذي يلتقط مورفولوجيا الخلية.

في فبراير الماضي ، أطلقت Readcoor إطلاقًا رائعًا لمنصة FISSEQ في اجتماع 2020 Advances in Genome Biology and Technology. أعلن ممثلو الشركة عن برنامج Select Release ووزعوا قمصانًا عليها وجه جورج تشيرش. منذ ذلك الحين ، تجاوزت الأحداث إطلاق المنصة ، وتحديداً الاضطرابات الناجمة عن وباء COVID-19.

يقول ريدكور GEN أن الوباء قد & # 8220 مفتاح الربط & # 8221 في الطرح عن طريق تأخير أو تعقيد خطط التثبيت الخاصة بالشركة. حجم مفتاح الربط غير واضح ، حيث لم تكشف Readcoor عن عدد العملاء الذين ما زالوا ينتظرون التثبيت ، أو حتى التحدث إلى نقطة أكثر عمومية ، وهي عدد العملاء الذين وافقوا على المشاركة في برنامج Select Release. منطقة أخرى حيث Readcoor هادئة هي تكلفة منصتها. بالمقارنة ، باعت NanoString أكثر من 125 نظام GeoDX (مع أكثر من 70 نظامًا مثبتًا) بسعر 300000 دولار لكل نظام.

لكن Evan Daugharthy ، دكتوراه ، نائب رئيس العلوم في ReadCoor ، متفائل بأن الشركة & # 8220 ستقلب الزاوية قريبًا وستكون قادرة على توصيل أدواتنا لعملائنا. & # 8221 تؤكد Readcoor أنها تسير على الطريق الصحيح للإطلاق التجاري الكامل لـ المنصة في عام 2021.

Readcoor ليست الشركة الأولى التي تخرج من البوابة ، وبالتأكيد لن تكون الأخيرة. كن مطمئنًا ، كما يقول Beechem ، سيكون هناك العديد من الشركات الجديدة كل عام - & # 8221 biters & # 8221 يسميهم - تحاول الحصول على موطئ قدم في هذا المجال. لكن Beechem يحذر من أن بناء منصة يستغرق وقتًا طويلاً. ليس عليك فقط أن يكون لديك كيمياء تعمل على إنشاء منصة مكانية ، بل تحتاج أيضًا إلى الزواج من منصة تصوير ومسلسِل ، وهو تحدٍ متعدد الأبعاد. يشرح أنه قبل خمس سنوات ، كان يقضي 90٪ من وقته في بناء التكنولوجيا.

بغض النظر عما إذا كان الرواد المكانيون أو الشركات الجديدة والناشئة المذكورة في هذه المقالة ناجحين ، فإن الوعد بالنسخ المكانية يعد عميقاً. هذا & # 8220 يمكن أن يؤدي إلى عصر جديد ، & # 8221 يؤكد الكنيسة ، لأنه يتيح التحقيق في & # 8220 التعبير الشامل والعلاقات بين الخلايا على مسافات مكانية شاسعة. & # 8221 عندما تنظر إلى المجموعة بأكملها ، يلاحظ ، تجد أن & # 8220 المكان الذي لم تفكر في أن تنظر إليه & # 8221 بعيد المنال. من خلال استطلاعات نصية شاملة ، هناك فرصة أفضل للعثور على النص الوحيد المسبب - نقطة ضعف محتملة - حيث قد يعمل العلاج فقط.

بعد عقدين من احتفالنا بأول خريطتنا التفصيلية للجينوم البشري ، يبدو أن المكاني هو الحدود المثيرة التالية التي يجب أن يتغلب عليها علم الجينوم.


يتسبب SSH في توقف أثناء التكرار

لقد تمكنت أخيرًا من تلخيص مشكلة كنت أعاني منها منذ بضعة أسابيع. أستخدم SSH مع "المفاتيح المصرح بها" لتشغيل الأوامر عن بُعد. كل شيء على ما يرام إلا عندما أفعل ذلك في حلقة متكررة. تنتهي الحلقة بعد إكمال أي تكرار باستخدام الأمر ssh.

لفترة طويلة اعتقدت أن هذا كان نوعًا من غرابة ksh ، لكنني اكتشفت الآن أن bash يتصرف في الواقع بشكل متماثل.

برنامج عينة صغير لإعادة إنتاج المشكلة. يتم استخلاص هذا من تطبيق أكبر يأخذ لقطات ويكررها بين العقد في الكتلة.

(لاحظ أن هناك حرف TAB في تعبير بحث grep وفقًا لتعريف سلوك قائمة zfs الخيار "-H".)

تحتوي عيّنتي على بعض أنظمة ملفات ZFS للجذر حيث تحتوي جميع "المناطق" على نظام ملفات جذر على مجموعة بيانات مسماة على غرار

يجب أن تنشئ الحلقة أعلاه لقطة لكل مجموعة من مجموعات البيانات المحددة ، ولكنها تعمل بدلاً من ذلك على المجموعة الأولى فقط ثم تخرج.

أن البرنامج يجد العدد الصحيح من مجموعات البيانات يمكن تأكيده بسهولة عن طريق التحقق من ملف "/ tmp / actionlist" بعد وجود البرنامج النصي.

إذا تم استبدال الأمر ssh ، على سبيل المثال ، بأمر echo ، فإن الحلقة تتكرر عبر جميع أسطر الإدخال. أو المفضل لدي - "صدى" قبل الأمر المسيء.

إذا استخدمت حلقة for بدلاً من ذلك ، فإنها تعمل أيضًا ، ولكن نظرًا للحجم المحتمل لقائمة مجموعات البيانات ، فقد يتسبب ذلك في حدوث مشكلات مع الحد الأقصى لطول سطر الأوامر الموسع.

أنا الآن متأكد بنسبة 99.999٪ من أن تلك الحلقات التي تحتوي على أوامر ssh فقط هي التي تعطيني مشاكل!

لاحظ أن التكرار الذي يعمل فيه الأمر ssh يكتمل! يبدو الأمر كما لو أن البيانات التي تم إدخالها إلى الحلقة while تضيع فجأة. إذا لم تنفذ أسطر الإدخال القليلة أمر ssh ، فستستمر الحلقة حتى تقوم بالفعل بتشغيل أمر SSH.

على جهاز الكمبيوتر المحمول الخاص بي حيث أقوم باختبار هذا ، لدي اثنين من وحدات سولاريس 10 VM مع حوالي مجموعتين أو ثلاث عينات من مجموعات البيانات ، ولكن الشيء نفسه يحدث على أنظمة SPARC الكبيرة حيث من المفترض أن يتم تشغيل هذا ، وهناك العديد من مجموعات البيانات.


مقدمة

يُحدث تحليل تعبير الحمض النووي الريبي أحادي الخلية (scRNA-seq) ثورة في علم الكائن الحي بالكامل [1 ، 2] مما يسمح بالتعرف غير المتحيز على التغايرية الجزيئية غير المميزة سابقًا على المستوى الخلوي. يمكن أن يبرز التحليل الإحصائي لمحات التعبير الجيني أحادية الخلية الأنواع الفرعية الخلوية المفترضة ، وتحديد مجموعات فرعية من الخلايا التائية [3] وخلايا الرئة [4] والخلايا العضلية [5]. يمكن أن تكون هذه المجموعات الفرعية ذات صلة إكلينيكيًا: على سبيل المثال ، تحتوي أورام الدماغ الفردية على خلايا من أنواع متعددة من سرطانات الدماغ ، ويرتبط التباين الأكبر في الورم بالتشخيص السيئ [6].

على الرغم من نجاح دراسات الخلية المفردة المبكرة ، فإن الأدوات الإحصائية التي تم تطبيقها حتى الآن هي عامة إلى حد كبير ، ونادرًا ما تأخذ في الاعتبار السمات الهيكلية الخاصة لبيانات التعبير أحادية الخلية. على وجه الخصوص ، تحتوي بيانات التعبير الجيني أحادي الخلية على وفرة من أحداث التسرب التي تؤدي إلى قياسات تعبير صفري. قد تكون أحداث التسرب هذه نتيجة لتأثيرات أخذ العينات التقنية (بسبب انخفاض أعداد النسخ) أو البيولوجيا الحقيقية الناشئة عن نشاط النسخ العشوائي (الشكل 1 أ). تم الاضطلاع بأعمال سابقة لحساب المتسربين في التحليل أحادي المتغير ، مثل تحليل التعبير التفاضلي ، باستخدام نمذجة الخليط [7 ، 8]. ومع ذلك ، لم يتم النظر في مناهج المشكلات متعددة المتغيرات ، بما في ذلك تقليل الأبعاد. نتيجة لذلك ، لم يكن من الممكن التأكد بشكل كامل من تداعيات تطبيق تقنيات تقليل الأبعاد ، مثل تحليل المكونات الرئيسية (PCA) ، على البيانات المتضخمة الصفرية.

التضخم الصفري في بيانات تعبير الخلية المفردة. أ يوضح التوزيع التوضيحي لمستويات التعبير لثلاثة جينات تم اختيارها عشوائيًا وفرة من الخلايا المفردة التي تظهر تعبيرًا فارغًا [15]. ب توضح الخرائط الحرارية العلاقة بين معدل التسرب ومتوسط ​​مستوى التعبير غير الصفري لثلاث مجموعات بيانات وحيدة الخلية منشورة [3 ، 5 ، 14] بما في ذلك ملاءمة النموذج الأسي المزدوج التقريبي. ج رسم تخطيطي يوضح عملية توليد البيانات المستخدمة من قبل ZIFA. د مؤامرة توضيحية توضح كيفية اختلاف قيم λ في علاقة التعبير يعني التسرب (خطوط زرقاء) يمكن أن يعدل توزيع التعبير الجيني الكامن لإعطاء مجموعة من البيانات المرصودة الصفرية المتضخمة

يعد تقليل الأبعاد خطوة عالمية لمعالجة البيانات في تحليل التعبير الجيني عالي الأبعاد. إنه يتضمن إسقاط نقاط البيانات من مساحة قياس التعبير الجيني عالي الأبعاد إلى أبعاد منخفضة كامنة الفضاء يقلل من المشكلة التحليلية من الفحص المتزامن لعشرات الآلاف من الجينات الفردية إلى عدد أقل بكثير من المجموعات (الموزونة) التي تستغل أنماط التعبير المشترك للجينات. في الفضاء الكامن منخفض الأبعاد ، من المأمول أن يكون من السهل تصور الأنماط أو الاتصالات بين نقاط البيانات التي يصعب أو يستحيل تحديدها في الفضاء عالي الأبعاد.

الأسلوب الأكثر استخدامًا هو PCA ، والذي يحدد اتجاهات التباين الأكبر (المكونات الرئيسية) ويستخدم تحويلًا خطيًا للبيانات إلى مساحة كامنة تمتد بواسطة هذه المكونات الرئيسية. يكون التحويل خطيًا حيث أن إحداثيات نقاط البيانات في الفضاء الكامن منخفض الأبعاد عبارة عن مجموع مرجح للإحداثيات في الفضاء الأصلي عالي الأبعاد ولا يتم استخدام أي تحويلات غير خطية. تشتمل التقنيات الخطية الأخرى على تحليل العوامل (FA) ، والذي يشبه PCA ولكنه يركز على علاقات النمذجة بدلاً من التغايرات. تتوفر أيضًا العديد من تقنيات الأبعاد غير الخطية ولكن غالبًا ما يتم استخدام الطرق الخطية في خطوة أولية في أي معالجة لتقليل الأبعاد نظرًا لأن التقنيات غير الخطية تكون عادةً أكثر تعقيدًا من الناحية الحسابية ولا تتسع بشكل جيد للتعامل مع عدة آلاف من الجينات والعينات في وقت واحد.

في هذه المقالة ، نركز على تأثير أحداث التسرب على ناتج خوارزميات تقليل الأبعاد (المناهج الخطية بشكل أساسي) ونقترح امتدادًا جديدًا لإطار تحليل المكونات الرئيسية الاحتمالية (PPCA) [9] أو FA لحساب هذه الأحداث. نوضح أن أداء خوارزميات تقليل الأبعاد القياسية على بيانات تعبير خلية مفردة عالية الأبعاد يمكن أن يتأثر بوجود تضخم صفري مما يجعلها دون المستوى الأمثل. نقدم نموذجًا جديدًا لخفض الأبعاد ، تحليل عامل مضخم صفري (ZIFA) ، لحساب بوضوح لوجود المتسربين. لقد أثبتنا أن ZIFA يتفوق على الطرق الأخرى في البيانات المحاكاة وبيانات الخلية المفردة من الدراسات الأخيرة لـ scRNA-seq.

الملاحظة التجريبية الأساسية التي يقوم عليها نموذج التضخم الصفري في ZIFA هي أن معدل التسرب للجين يعتمد على مستوى التعبير المتوقع لهذا الجين في السكان. من المرجح أن تتأثر الجينات ذات حجم التعبير الأقل بالتسرب أكثر من الجينات التي يتم التعبير عنها بحجم أكبر. على وجه الخصوص ، إذا تم إعطاء المستوى المتوسط ​​للتعبير غير الصفري (عدد قراءة السجل) بواسطة ميكرومتر ومعدل التسرب لهذا الجين ص 0، وجدنا أن علاقة التسرب هذه يمكن تشكيلها تقريبًا باستخدام شكل حدودي ص 0= exp (-λ ميكرومتر 2) أين λ هي معلمة مناسبة ، تعتمد على دالة أسية مزدوجة. تتوافق هذه العلاقة مع التحقيقات السابقة [7] وتوجد في العديد من مجموعات البيانات أحادية الخلية الموجودة (الشكل 1 ب) ، بما في ذلك مجموعة البيانات ذات المعرفات الجزيئية الفريدة [10] (ملف إضافي 1: الشكل S1). يسمح استخدام هذا النموذج البارامترى بحسابات الجبر الخطي السريعة والقابلة للتتبع في ZIFA مما يتيح استخدامه على مجموعات البيانات ذات الحجم الواقعي في إعداد متعدد المتغيرات.


يحصل لاعبو الهواتف الخلوية على لحظاتهم في دائرة الضوء

الائتمان: معهد وايتهيد للبحوث الطبية الحيوية

من أجل فهم علم الأحياء لدينا ، يحتاج الباحثون إلى التحقيق ليس فقط في ما تفعله الخلايا ، ولكن أيضًا بشكل أكثر تحديدًا ما يحدث داخل الخلايا على مستوى العضيات ، وهي الهياكل المتخصصة التي تؤدي مهامًا فريدة للحفاظ على عمل الخلية. ومع ذلك ، فإن معظم طرق التحليل تتم على مستوى الخلية بأكملها. نظرًا لأن عضية معينة قد تشكل جزءًا بسيطًا فقط من محتويات خلية مجهرية بالفعل ، فإن "ضوضاء الخلفية" الصادرة عن المكونات الخلوية الأخرى يمكن أن تحجب المعلومات المفيدة حول العضية التي تتم دراستها ، مثل التغيرات في بروتين العضية أو مستويات المستقلب استجابةً لاختلاف شروط.

عضو معهد وايتهيد ديفيد ساباتيني ووالتر تشين ، طالب دراسات عليا سابق في مختبر ساباتيني والآن طبيب أطفال مقيم في مستشفى بوسطن للأطفال ومركز بوسطن الطبي وباحث ما بعد الدكتوراه في كلية الطب بجامعة هارفارد ، طوروا في السنوات الأخيرة طريقة لعزل العضيات لتحليلها يفوق الطرق السابقة في قدرته على تنقية العضيات بسرعة وبشكل خاص. قاموا أولاً بتطبيق الطريقة على الميتوكوندريا ، العضيات المولدة للطاقة المعروفة باسم "مراكز قوة الخلية" ، ونشروا دراستهم في زنزانة في عام 2016. بعد ذلك ، طبق الباحث السابق لما بعد الدكتوراه في مختبر ساباتيني منذر أبو رميلة وطالب الدراسات العليا غريغوري واينت الطريقة على الليزوزومات ، وهي نباتات إعادة التدوير للخلايا التي تفكك أجزاء الخلايا لإعادة استخدامها ، كما هو موضح في المجلة. علم في عام 2017. بالتعاون مع باحث ما بعد الدكتوراه السابق في مختبر Sabatini Kivanc Birsoy ، طور Sabatini و Chen بعد ذلك طريقة لاستخدام طريقة الميتوكوندريا في الفئران ، كما هو موضح في PNAS في عام 2019. الآن ، في ورقة بحثية نُشرت في iScience في 22 مايو ، قام ساباتيني وتشين وطالب الدراسات العليا جوردان راي بتوسيع طريقة استخدامها على البيروكسيسومات ، وهي عضيات تلعب أدوارًا أساسية في فسيولوجيا الإنسان.

يقول ساباتيني: "إنه لمن دواعي السرور أن نرى مجموعة الأدوات هذه تتوسع حتى نتمكن من استخدامها لاكتساب نظرة ثاقبة على الفروق الدقيقة في بيولوجيا هذه العضيات".

باستخدام تقنيات الترسيب المناعي العضوي ، اكتشف الباحثون جوانب غير معروفة سابقًا لبيولوجيا الميتوكوندريا ، بما في ذلك التغيرات في المستقلبات خلال حالات متنوعة من وظيفة الميتوكوندريا. كما اكتشفوا جوانب جديدة في علم الأحياء الليزوزومي ، بما في ذلك كيفية تأثير المجاعة في المغذيات على تبادل الأحماض الأمينية بين العضية وبقية الخلية. يمكن أن تساعد أساليبهم الباحثين في اكتساب رؤى جديدة حول الأمراض التي تتأثر فيها الميتوكوندريا أو الجسيمات الحالة ، مثل اضطرابات السلسلة التنفسية للميتوكوندريا ، وأمراض التخزين الليزوزومية ، ومرض باركنسون. Now that Sabatini, Chen, and Ray have extended the method to peroxisomes, it could also be used to learn more about peroxisome-linked disorders.

Developing a potent method

The researchers' method is based on "organellar immunoprecipitation," which utilizes antibodies, immune system proteins that recognize specific perceived threats that they are supposed to bind to and help remove from the body. The researchers create a custom tag for each type of organelle by taking an epitope, the section of a typical perceived threat that antibodies recognize and bind to, and fusing it to a protein that is known to localize to the membrane of the organelle of interest, so the tag will attach to the organelle. The cells containing these tagged organelles are first broken up to release all of the cell's contents, and then put in solution with tiny magnetic beads covered in the aforementioned antibodies. The antibodies on the beads latch onto the tagged organelles. A magnet is then used to collect all of the beads and separate the bound organelles from the rest of the cellular material, while contaminants are washed away. The resulting isolated organelles can subsequently be analyzed using a variety of methods that look at the organelles' metabolites, lipids, and proteins.

With their method, Chen and Sabatini have developed an organellar isolation technique that is both rapid and specific, qualities that prior methods have typically lacked. The workflow that Chen and Sabatini developed is fast—this new iteration for peroxisomes takes only 10 minutes to isolate the tagged organelles once they have been released from cells. Speed is important because the natural profile of the organelles' metabolites and proteins begins to change once they are released from the cell, and the longer the process takes, the less the results will reflect the organelle's native state.

"We're interested in studying the metabolic contents of organelles, which can be labile over the course of an isolation," Chen says. "Because of their speed and specificity, these methods allow us to not only better assess the original metabolic profile of a specific organelle but also study proteins that may have more transient interactions with the organelle, which is very exciting."

Peroxisomes take the limelight

Peroxisomes are organelles that are important for multiple metabolic processes and contribute to a number of essential biological functions, such as producing the insulating myelin sheaths for neurons. Defects in peroxisomal function are found in various genetic disorders in children and have been implicated in neurodegenerative diseases as well. However, compared to other organelles such as mitochondria, peroxisomes are relatively understudied. Being able to get a close-up look at the contents of peroxisomes may provide insights into important and previously unappreciated biology. Importantly, in contrast to traditional ways of isolating peroxisomes, the new method that Sabatini, Chen, and Ray have developed is not only fast and specific, but also reproducible and easy to use.

"Peroxisomal biology is quite fascinating, and there are a lot of outstanding questions about how they are formed, how they mature, and what their role is in disease that hopefully this tool can help elucidate," Ray says.

An exciting next step may be to adapt the peroxisome isolation method so it can be used in a mammaliam model organism, such as mice, something the researchers have already done with the mitochondrial version.

"Using this method in animals could be especially helpful for studying peroxisomes because peroxisomes participate in a variety of functions that are essential on an organismal rather than cellular level," Chen says. Going forward, Chen is interested in using the method to profile the contents of peroxisomes in specific cell types across a panel of different mammalian organs.

While Chen sets out to discover what unknown biology the peroxisome isolation method can reveal, researchers in Sabatini's lab are busy working on another project: extending the method to even more organelles.

Erol C. Bayraktar et al. MITO-Tag Mice enable rapid isolation and multimodal profiling of mitochondria from specific cell types in vivo, وقائع الأكاديمية الوطنية للعلوم (2018). DOI: 10.1073/pnas.1816656115


What is Ksp?

#K_(sp)# is called solubility product constant, or simply solubility product. In general, the solubility product of a compound represents the product of molar concentrations of ions raised to the power of their respective stoichiometric coefficients in the equilibrium reaction.

Here's an example to better demonstrate the concept. Let's consider the saturated solution of silver chloride ( #AgCl# ), where an equilibrium exists between the dissolved ions and undissolved silver chloride according to the following reaction:

#AgCl_((s)) rightleftharpoons Ag_((aq))^(+) + Cl_((aq))^(-)#

Since this is an equilibrium reaction, we can write the equilibrium constant for it:

#K = ([Ag^(+)]*[Cl^(-)])/([AgCl])# . Now, the concentrations of solids are either unknown or assumed to be constant, so this reaction becomes

The magnitude of #K_(sp)# directly indicates the solubility of the salt in water, since #K_(sp)# is derived from the concentrations of ions in equilibrium reactions. Thus, higher concentrations of ions mean greater solubility of the salt.

When trying to write the equation for #K_(sp)# , you need to know how to break the compound into ions (identify the monoatomic and polyatomic ions), how many moles of each ion are formed, and the charge on each ion.


Using ask and with

The previous examples of ask have been applied to الكل the turtles or patches in the model. However, most of the time it is more useful to execute a command on a smaller group. To do this, we can use the with command.

Here, instead of giving الكل the turtles to the ask command, we give it the group of turtles who have a value of true stored in their variable called sick (this is a special variable created specifically for the 'virus' model).

Visually, these two commands are constructed like so:

Finally, we will use a combination of ask and some other commands to do something more interesting than changing colours.

You can probably see that the first command ( ask turtles [ facexy 0 0 ] ) tells each turtle to spin round and face the coordinate (0,0) (which happens to be in the middle of the world in this model). The commands that follow ( ask turtles [ forward 1 ] ) tell the agents to move forward one step in the direction that they are facing. This might seem trivial, but you now have covered the main commands that you need to create an agent-based model!

Remember, information about all the different commands that are available can be found in the NetLogo documentation. In particular, the NetLogo Dictionary lists every command that is available.


The merging of humans and machines is happening now

The merging of machine capability and human consciousness is already happening. Writing exclusively for WIRED, DARPA director Arati Prabhkar outlines the potential rewards we face in the future - and the risks we face

Peter Sorger and Ben Gyori are brainstorming with a computer in a laboratory at Harvard Medical School. Their goal is to figure out why a powerful melanoma drug stops helping patients after a few months. But if their approach to human-computer collaboration is successful, it could generate a new approach to fundamentally understanding complexities that may change not only how cancer patients are treated, but also how innovation and discovery are pursued in countless other domains.

At the heart of their challenge is the crazily complicated hairball of activity going on inside a cancer cell - or in any cell. Untold thousands of interacting biochemical processes, constantly morphing, depending on which genes are most active and what's going on around them. Sorger and Gyori know from studies of cells taken from treated patients that the melanoma drug's loss of efficacy over time correlates with increased activity of two genes. But with so many factors directly or indirectly affecting those genes, and only a relatively crude model of those global interactions available, it's impossible to determine which actors in the cell they might want to target with additional drugs.

That's where the team's novel computer system comes in. All Sorger and Gyori have to do is type in a new idea they have about the interactions among three proteins, based on a mix of clinical evidence, their deep scientific expertise, and good old human intuition. The system instantly considers the team's thinking and generates hundreds of new differential equations, enriching and improving its previous analytical model of the myriad activities inside drug-treated cells. And then it spits out new results.

These don't predict all the relevant observations from tumour cells, but it gives the researchers another idea involving two more proteins - which they shoot back on their keyboard. The computer churns and responds with a new round of analysis, producing a model that, it turns out, predicts exactly what happens in patients and offers new clues about how to prevent some cases of melanoma recurrence.

In a sense, Sorger and Gyori do what scientists have done for centuries with one another: engage in ideation and a series of what-ifs. But in this case, their intellectual partner is a machine that builds, stores, computes and iterates on all those hundreds of equations and connections.

The combination of insights from the researchers and their computer creates a model that does not simply document correlations - "When you see more of this, you'll likely see more of that" - but rather starts to unveil the all-important middle steps and linkages of cause and effect, the how and why of molecular interactions, instead of just the what. In doing so, they make a jump from big data to deep understanding.

More than 3,220km away, another kind of human-machine collaboration unfolds at the University of Utah as Greg Clark asks Doug Fleenor to reach out and touch the image of a wooden door on a computer monitor.

Clark knows that Fleenor cannot physically touch this or any other object Fleenor lost both his hands in a near-fatal electrical accident 25 years ago. But Fleenor's arm has a chip in it that communicates with the computer, so when he moves his arm the image of a hand on the monitor also moves. He's done this before - raising his arm, watching the cartoon hand move in sync and seemingly stroke the face of the door - but this time it's different. He lurches back and gasps. "That is so cool!" he blurts.

What's so cool is that as he guides his virtual hand across that virtual plank, he literally, biologically and neurologically, feels its wooden surface. Thanks to some new software and an array of fine electrical connections between another embedded chip and the nerves running up his arm to his brain, he experiences a synthesised sensation of touch and texture indistinguishable from a tactile event.

For someone who hasn't actually touched anything with his hands for a quarter of a century, this is a transcendent moment - one that points to a remarkable future that is now becoming real… and in Fleenor's case, even tangible.

In ways as diverse as a shared understanding of causal complexity as in Peter Sorger's lab and the seamless commingling of software and wetware as in Greg Clark's lab, it's a future in which humans and machines will not just work side by side, but rather will interact and collaborate with such a degree of intimacy that the distinction between us and them will become almost imperceptible.

"We and our technological creations are poised to embark on what is sure to be a strange and deeply commingled evolutionary path" Arati Prabhakar, DARPA's former director

Building on adaptive signal processing and sensitive neural interfaces, machine reasoning and complex systems modelling, a new generation of capabilities is starting to integrate the immense power of digital systems and the mysterious hallmark of Homo sapiens - our capacity to experience insights and apply intuition. After decades of growing familiarity, we and our technological creations are poised to embark on what is sure to be a strange, exciting and deeply commingled evolutionary path.

Are we ready? Some signals suggest not. Even setting aside hyperbolic memes about our pending subservience to robot overlords, many are concerned about the impact of artificial intelligence and robotics on employment and the economy. A US survey last year by the Pew Research Center found that people are generally "more worried than enthusiastic" about breakthroughs that promise to integrate biology and technology, such as brain chip implants and engineered blood.

My particular vantage point on the future comes from leading the Defense Advanced Research Projects Agency (DARPA), the US government agency whose mission is to create breakthrough technologies for national security. Over six decades, we've sparked technological revolutions that ultimately led to some of today's most advanced materials and chip technologies, wave after wave of artificial intelligence, and the internet.

Today, Clark's work and Sorger's are part of the couple of hundred DARPA programmes opening the next technological frontier. And from my perspective, which embraces a wide swathe of research disciplines, it seems clear that we humans are on a path to a more symbiotic union with our machines.

What's drawing us forward is the lure of solutions to previously intractable problems, the prospect of advantageous enhancements to our inborn abilities, and the promise of improvements to the human condition. But as we stride into a future that will give our machines unprecedented roles in virtually every aspect of our lives, we humans - alone or even with the help of those machines - will need to wrangle some tough questions about the meaning of personal agency and autonomy, privacy and identity, authenticity and responsibility. Questions about who we are and what we want to be.

The internet: Inspired by the vision of computer scientist JCR Licklider, DARPA in 1969 demonstrated the first computer-to-computer communication system: a four-node network. It was the first in a long series of advances that led to today's global internet

Technology has long served as a window into our tangled inner طبيعة سجية. With every advance - from the earliest bone tools and stone hammers to today's jet engines and social media - our technologies have revealed and amplified our most creative and destructive sides.

For a long time, while technology was characterised primarily as "tools to help us do", the fear was that machines would turn ourselves into machines, like the blue-collar automatons in Charlie Chaplin's Modern Times. More recently have come "tools to help us think", and with them the opposite fear: that machines might soon grow smarter than us - or at least behave as though they are our boss.

Neither of these two fears has proven completely unfounded: witness, respectively, the daily hordes of zombie-like commuters staring at their phones, and today's debates about how and when to grant autonomy to driverless cars or military systems. But, although we're still grappling with these ideas, today, a third wave of technological innovation is starting, featuring machines that don't just help us do or think. They have the potential to help us be.

For some, this new symbiosis will feel like romance, and for others it will be a shotgun wedding. But either way it's worth understanding: how did we get here?

"A third wave of technological innovation is starting, featuring machines that don't just help us do or think - they have the potential to help us be" Arati Prabhakar, DARPA's former director

As with many revolutions, the roots of this emerging symbiosis run deep. All the way back in 1960, the visionary psychologist and computer pioneer JCR Licklider wrote with remarkable prescience of his hope "that, in not too many years, human brains and computing machines will be coupled together very tightly, and that the resulting partnership will think as no human brain has ever thought and process data in a way not approached by the information-handling machines we know today."

Licklider helped to launch the information revolution of the past half century, but the full realisation of this particular dream had to wait a few decades for two technology trends to mature.

The first of these trends is a direct outgrowth of that information revolution: today's big-bang-like expansion of capabilities in data science and artificial intelligence is coming into confluence with an unprecedented ability to incorporate in these systems human insights, expertise, context and common sense.

We humans have been very good, it turns out, at creating hugely complex systems - consider the multibillion-node internet, chips with billions of transistors, aircraft that have millions of individual components - and at collecting data about complex naturally occurring systems, from microbial interactions to climate dynamics to global patterns of societal behaviour.

But it's proven much more difficult to grasp how or why these super systems do what they do or what hidden nuggets of wisdom these datasets may contain, much less how to access that embedded knowledge to fuel further progress.

Here are some complex things we don't fully understand today: what is it about the combination of individually sensible algorithms that sometimes causes a flash crash on a stock exchange? What factors lead people in different parts of the world to develop a shared identity or sense of community, and what influences are most likely to break those bonds and fuel chaos, mass migration or revolution?

Of the countless factors that contribute to or protect against certain diseases, which are primary, and how do they interact? And for each of these puzzles, where are the most potent nodes or pressure points for which a modest fix might offer the biggest benefit? Today, as we humans start to work and think with our machines to transcend simple correlation - the powerful but ultimately limited basis of the initial wave of big-data applications - and perceive the deep linkages of causation, the answers to complex questions like these are coming within reach.

Autonomous vehicles: The 2004 DARPA Grand Challenge invited innovators to develop cars that could complete a course with no human on board. It stumped all entrants, but in 2005 a Stanford team won the prize and helped launch the revolution in self-driving cars

DARPA's Big Mechanism programme, of which Sorger is part, is one such effort, and it's not just about refining the picture of how drugs and genes work on melanoma cells. In another part of that programme, researchers have created machines that use advanced language processing algorithms to read scientific journal articles about particular cancer genes overnight, and then, each day, submit everything they've learned into a giant, continuously evolving model of cancer genetics.

These machines can read tens of thousands of scientific-journal articles per week - orders of magnitude more than a team of scientists could ingest - and can perform deep semantic analysis as they read, to reveal not just snapshots of cellular activities, but causal chains of biochemical reactions that enable the system to build quantitative models. In collaboration with human experts studying those results, the programme has begun generating promising new hypotheses about how to attack certain cancers with novel combinations of already approved medicines.

Along similar lines, the Bill & Melinda Gates Foundation has used DARPA-developed analytic tools to build a picture of the scores of factors related to child stunting, malnutrition and obesity. An effort of this scale would ordinarily take months of literature review, but it took just a few days to sketch out.

The resulting web of influences includes such disparate factors as breastfeeding, urbanisation and government subsidies for processed foods. It's a web to which humans can bring their own expertise - such as insights into the economic and political realities that might make it more practical to focus on one of those influences rather than another - so they can generate with their inanimate partners new public health strategies that scale from biochemistry to policy.

Cancer-research predicaments and the problems of childhood stunting and obesity are "Goldilocks" challenges - extremely difficult but plausibly tractable - in terms of the number of contributing factors and degrees of complexity that must be sorted through by humans and their machines to eke out solutions. What we learn from these efforts will have application in a range of national-security quandaries. Imagine, for example, developing practical insights by analytically modelling questions such as "What will be the impacts to critical infrastructure if a region's drought lasts for another five years?" and "To what degree might a country develop its human capital and economically empower women, and what impact would this have on its future political and economic trajectory?"

More broadly, it's difficult to find a programme at DARPA today that doesn't at some level aim to take advantage of a melding of human and computer traits and skill sets, from the design of novel synthetic chemicals, to the architecting of elaborate structures made possible by the advent of 3D additive manufacturing methods, to the command and control of unmanned aerial systems and management of the spectrum in highly congested communications environments.

Microsystems: From the micro-electromechanical chips that tell your phone when it has moved to the gallium arsenide circuits that transmit radio signals to cell towers, DARPA-initiated technologies have enabled the hand-held devices we so depend on today

To understand the second fast-moving trend that's supporting the emerging human-machine symbiosis, we need to move from hardware and software to wetware, and the progress being made in the field of neurotechnology.


شاهد الفيديو: BSE633A. PSI-BLAST Position Specific Iterated BLAST (شهر نوفمبر 2022).