<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>Technical on Condor Writing</title>
    <link>/tags/technical/</link>
    <description>Recent content in Technical on Condor Writing</description>
    <generator>Hugo</generator>
    <language>en</language>
    <lastBuildDate>Tue, 07 Apr 2026 00:00:00 +0000</lastBuildDate>
    <atom:link href="/tags/technical/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>LLM Development at Enterprise Scale</title>
      <link>/posts/llmdev2026/</link>
      <pubDate>Tue, 07 Apr 2026 00:00:00 +0000</pubDate>
      <guid>/posts/llmdev2026/</guid>
      <description>&lt;div class=&#34;ox-hugo-toc toc&#34;&gt;&#xA;&lt;div class=&#34;heading&#34;&gt;Table of Contents&lt;/div&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#introduction&#34;&gt;Introduction&lt;/a&gt;&lt;/li&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#microservices&#34;&gt;Microservices&lt;/a&gt;&lt;/li&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#resources-and-constraints&#34;&gt;Resources and Constraints&lt;/a&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#latency-hierarchy&#34;&gt;Latency Hierarchy&lt;/a&gt;&lt;/li&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#device&#34;&gt;Device&lt;/a&gt;&lt;/li&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#network&#34;&gt;Network&lt;/a&gt;&lt;/li&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#data-and-storage&#34;&gt;Data &amp;amp; Storage&lt;/a&gt;&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;/li&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#testing&#34;&gt;Testing&lt;/a&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#testing-layers&#34;&gt;Testing Layers&lt;/a&gt;&lt;/li&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#iteration-speed-is-development-output&#34;&gt;Iteration Speed is Development Output&lt;/a&gt;&lt;/li&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#effective-docker-design&#34;&gt;Effective Docker Design&lt;/a&gt;&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;/li&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#involving-llms&#34;&gt;Involving LLMs&lt;/a&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#working-with-models-via-ooda-loops&#34;&gt;Working with Models via OODA Loops&lt;/a&gt;&lt;/li&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#model-selection&#34;&gt;Model Selection&lt;/a&gt;&lt;/li&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#claude&#34;&gt;Claude&lt;/a&gt;&lt;/li&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#gpt&#34;&gt;GPT&lt;/a&gt;&lt;/li&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#open-models&#34;&gt;Open Models&lt;/a&gt;&lt;/li&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#model-collaboration&#34;&gt;Model Collaboration&lt;/a&gt;&lt;/li&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#effective-collaboration-tools&#34;&gt;Effective Collaboration Tools&lt;/a&gt;&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;/li&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#the-human-in-the-machine&#34;&gt;The Human in the Machine&lt;/a&gt;&lt;/li&gt;&#xA;&lt;li&gt;&lt;a href=&#34;/posts/llmdev2026/#wrap-up&#34;&gt;Wrap Up&lt;/a&gt;&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;/div&gt;&#xA;&lt;!--endtoc--&gt;&#xA;&lt;p&gt;This is a talk I gave at a company on-site turned into an article.  Expect it to be lengthy and less suitable for a non-technical audience after the introduction.  The article is intended for new developer onboarding, detailing a range of infrastructure considerations, and a guide to working with LLMs for enterprise development.&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
