@Blog
日常日誌からプログラムやYOUTUBER紹介、旅日記まで日々更新中です。

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.
2025.06.22
おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.
実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。
ローカルAI記事生成は、もはや夢物語じゃない
「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。
Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。
なぜLlama 3があなたのPCと相性抜群なのか?
Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。
- 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
- 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
- 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
- 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。
あなたのPCを「記事生成マシン」に変える秘訣
もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。
- 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
- プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
- 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。
あなたの創造性が、今、AIで加速する
かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。
とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.
ファインチューニングPythonコード
以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。
import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType
# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
# GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
# exit("GPUがないため終了します。")
else:
print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")
# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます
print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")
# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
bnb_4bit_compute_dtype=torch.bfloat16
)
# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"
# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
quantization_config=bnb_config,
device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")
# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")
# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます
print(f"データセットをロード中: {DATA_DIR}")
# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
exit("データセットロード失敗。")
# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
# Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
# ここでは一般的な値として2048を設定しています。
max_length = 2048
# truncate=Trueで最大長を超えるテキストを切り捨てます。
return tokenizer(examples["text"], truncation=True, max_length=max_length)
# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
tokenize_function,
batched=True,
num_proc=os.cpu_count(),
remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")
# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
bias="none", # バイアスを学習しない設定。
lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)
# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。
# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます
# 学習の設定
training_args = TrainingArguments(
output_dir=OUTPUT_DIR,
num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
save_steps=500, # 500ステップごとにモデルを保存します。
logging_steps=100, # 100ステップごとにログを出力します。
learning_rate=2e-4, # 学習率。
fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
max_steps=-1, # num_train_epochsに基づいて学習します。
group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
warmup_ratio=0.03, # ウォームアップ比率。
report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)
# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
model=model,
train_dataset=tokenized_dataset["train"],
args=training_args,
data_collator=lambda data: {
'input_ids': torch.stack([f['input_ids'] for f in data]),
'attention_mask': torch.stack([f['attention_mask'] for f in data]),
'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
},
)
# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")
# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")
# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
# MODEL_NAME,
# quantization_config=bnb_config,
# device_map="auto",
# trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
# outputs = peft_model.generate(
# **inputs,
# max_new_tokens=200, # 生成する新しいトークンの最大数
# do_sample=True, # サンプリングによる生成を有効化
# top_p=0.9, # Nucleusサンプリングの閾値
# temperature=0.7, # 生成の多様性を制御する温度
# eos_token_id=tokenizer.eos_token_id # 終了トークンID
# )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

クラウドワークスとかランサーズとかではないプラットフォームを使いたい! #安価 #低報酬
2022.10.20
おはようございます、朝晩涼しくなってきましたね😱。
さて、クラウドワークスとかランサーズとかではないプラットフォームを使いたいという話です。何故、クラウドワークスとかランサーズとかは駄目なのか?答えは簡単でまず仕事が取れない、取れた場合も報酬額が安くて割に合わないケースが多いので自分としては見限ったサービスです。たまに入札することもあるのですが、殆ど使わないですね。
今はクラウドワークスやランサーズ以外で働けるサービスを探しています。ある程度の収入が確保出来るモノがあれば良いのになって思いますが、なかなか見つからないのが現状です🙄。
フリーランスの高額なお仕事もあるにはあります、またフルリモートのお仕事も有るにはありますが躊躇してしまう(自分の技量で大丈夫かなと・・・・)。
なので、その中間のようなサービスがあれば良いのになって・・・迷える羊はそう思ってます、めぇ~🐏w。
クラウドワークスとフリーランス案件の中間のようなサイトがあれば、多分、それで生きていけるような気がします。そんなサイトを探しているのですが未だに無いですね。
そして、思う事はクラウドワークス側が最低価格保証を設定してほしい。そうすれば変な案件等はなくなるじゃないかって思います。3,000円とか5,000円の案件とかあり得ないですね。
なんだか書いていて愚痴になるので此処らへんで〆ます。
ともあれ、そろそろ年末年始です。
頑張ろう🦾。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
お仕事, クラウド, ケース, こと, サービス, たま, プラットフォーム, フリー, プル, めぇ, もの, ランサーズ, ランス, リモート, ワークス, 中間, 今, 仕事, 入札, 収入, 報酬, 場合, 安価, 技量, 朝晩, 殆ど, 現状, 確保, 答え, 簡単, 羊, 自分, 話, 躊躇, 駄目, 高額,

千年女優という映画を倍速モードで観ました。つま・・・なかった。
2022.06.10
おはようございます。PGフリーランスの案件は結構高額が多い訳はお国が20%ピンハネするからです?
課税される所得金額 | 税率 | 控除額 |
195万円以下 | 5% | 0円 |
195万円超330万円以下 | 10% | 97,500円 |
330万円超695万円以下 | 20% | 42万7,500円 |
695万円超900万円以下 | 23% | 63万6,000円 |
900万円超1,800万円以下 | 33% | 153万6,000円 |
1,800万円超4,000万円以下 | 40% | 279万6,000円 |
4,000万円超 | 45% | 479万6,000円 |
先日、千年女優という映画が面白いという評判をRSSで目にしてNetflixで見てみたのですが、あまりにも昭和レトロなアニメで途中から倍速モードというか飛ばし飛ばし観ました。
結局のところ、面白いと思わなかったです🙇、因みに「トップガン」の最新作を観て全然面白いと感じなかったので普通の人の感性と少しずれがあるのかもしれないです🤔。
これを観るだったら「パプリカ」をオススメします。あちらの方が断然、前衛的(アバンギャルド)だったと思います、因みに監督は千年女優と同じ監督(今 敏)さんだったと思います。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
0, 000, 1, 10, 153, 195, 20, 23, 279, 33, 330, 4, 40, 42, 45, 479, 5, 500, 6, 63, 695, 7, 800, 900, 97, Netflix, PG, RSS, アニメ, これ, つま, ところ, トップガン, ピンはね, フリー, モード, ランス, レトロ, 万, 人, 倍速, 先日, 千, 国, 女優, 少し, 感性, 所得, 控除, 映画, 昭和, 普通, 最新作, 案件, 目, 税率, 結局, 訳, 評判, 課税, 途中, 金額, 高額,

情報弱者に情報商材を高額で売る。
2022.03.29
おはよう御座います。
最近YOUTUBEを見ていると情報弱者に情報商材を高額で売っている人がいます。アレで買う人がいるだからやるせない気持ちになります。当然、Azさんの電子書籍にも情報商材が販売されてたりします。その他、新書の中古販売で高額な金額で商品を売っている人もいます。
騙されないでと言いたいのですが、騙されてしまいます。天才が世の中の2%~5%といるように情報弱者も2%~5%以上言われています。弱者には優しくない世の中なのが今の現状かと思います。
これを改善するには正しい情報をもっとわかり易く伝えることが大事になると思いますが、それが情報弱者に正しく伝わるかは難しいものです。だから、そういうのを見かけるとやるせない気持ちになります。何か法的に規制しないといけない時期じゃないのかなって、そう自分は思います。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
2, 5, Az, youtube, アレ, こと, これ, その他, それ, もの, 世, 中, 中古, 人, 今, 商品, 商材, 大事, 天才, 弱者, 情報, 改善, 新書, 時期, 書籍, 最近, 気持ち, 現状, 自分, 規制, 販売, 金額, 電子, 高額,

ブログのメンターに100万円払う人がいるだな。絶句したのは自分だけ?
2021.06.08
ブログのメンターに100万円払う人がいるだな。絶句したのは自分だけなのか?100万円が適正価格なのかはわからないけど、自分だったらブログのメンターにそんなにも高額な金額は払わない。そんな余ったお金があるのならば株式投資や投資信託へお金を分配すると思います。世の中にはそんな人達もいるだなと思ってやはり自分の感覚でいるとほどんどの事が無料で出来ると思っているので、今回、YOUTUBEでそんな事をリアルに語っていた26歳の普通の人が衝撃的だった。デジタルにそんなにも高額な対価を支払う人が世の中に入るだな。
一番、自分が高額な代金を支払っているのはアドビのイラレなのだが、これだけは代替品ではしっくりこないので、未だに高額な費用を月々支払続けている。その額が約3000円なのだ、これでも高いと思っている。
プログラマーという職で今まで生きてきたので、自分で作れるものはサクサクと作ったり、先人のライブラリや探せばオープンソースで出来るものは結構ある。YOUTUBEで言えば自分は無料のソフトで動画編集をしている。
玄人の人なら知っている人も多いかもしれない、DaVinci Resolve?(ダビンチ・リゾルブ)という動画編集ソフトを使用して動画編集をしている。こんな感じで無償で超有名なソフトは殆どの場合、無害なものが多い。無料にはなにか裏があるという考え方もあるけれど、本当に無償で無害なものもあることも確か。
プログラマーになるためにメンターにお金を払う人とブロガーになるためにお金を払う人とは同じ具合だと思う。お金を儲けれるために先行投資だと思っているだと、それはかなり損なので辞めといた方が良い。インターネットには先人の知識が無数にあるので、それを使用しない手はない。
まとめ、100万円誰かに支払うなら、自分だったら好きな会社に投資します。評価の良い参考書を買うとか、そんな事に自分だったらお金を使います?。無償でなんとかなることは無償でなんとかなる時代です。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
100, 26, 3000, youtube, アドビ, イラレ, お金, これ, これだけ, ソース, デジタル, とほ, どんど, ブログ, プログラマー, メンター, もの, ライブラリ, リアル, 一, 万, 世, 中, 事, 人, 今回, 代替, 代金, 価格, 先人, 分配, 対価, 感覚, 投資, 投資信託, 支払, 普通, 月々, 株式, 無料, 絶句, 職, 自分, 費用, 適正, 金額, 額, 高額,

映画、ジェミニマンを観ましたよ。
2021.03.17
映画、ジェミニマンを観ましたよ。どちらかという古典的な映画を観ている感じがしましたが、実際、こういう事が技術的には可能なわけですよね。北朝鮮とかもうこんな事を行っていてもおかしくはない気がする、そう思ってみると何だか、「ぞっ」とする話なんだけどね。そして臓器を3Dプリンターでつくる技術は年々、向上しているみたいでこのままの技術向上のまま進めば、自分たちが生きているうちに臓器の取替は可能になるみたいです。最初は保険が効かないし高額だと思いますが、臓器を変えることにより寿命延長できることは確かです。でも手術とかするのもやだなー怖いなーという自分はマイクロマシンやナノマシンに期待しています。そちらの方が安価な再生医療かなと思ったりしますね。そんな事を考えながらジェミニマンを見ていたわけではありません。
因みにジェミニとはローマ神話でカストルとポルックスの双子の兄弟を指すそうですよ。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
3, うち, カストル, こと, このまま, ジェミニ, そちら, だなー, どちらか, ナノ, プリンター, ポルックス, マイクロ, マシン, まま, マン, ローマ, わけ, 事, 保険, 兄弟, 再生, 北朝鮮, 医療, 双子, 取替, 可能, 向上, 安価, 実際, 寿命, 年々, 延長, 感じ, 手術, 技術, 方, 映画, 最初, 期待, 気, 神話, 臓器, 自分, 話, 高額,

さくらサーバと別会社のサーバを使う場合。
2020.10.21

さくらサーバでメインドメインを使って、サブドメインを別サーバと紐付けて使用する場合は、ネームサーバで設定せずにAレコードで設定するに限る。この話はドメインをお名前.comなどのドメイン販売をメインで取り扱っている会社の話になると思います。レンタルサーバーでドメイン取得してサブドメインを別サーバで使用する場合もおなじですが、WEBの制作会社などは大体、ドメインをメインとして発売されている会社で取得して、サーバは別会社で取り扱っていることがセオリーなのかなぁ・・・。
何故ってサーバを別会社に移行する場合、サーバとドメインを同じところで取得しているとサーバ移行時に、無駄なお金が発生するからです。ドメインを移管しようものなら、高額なドメイン移管代を支払うハメになったり、サーバ移行したけどドメインはサーバのまま保持しないといけなくなったりして、新サーバ代と旧サーバ代の両方を毎月支払うハメになったりとサーバを移行するのに無駄なお金が発生するので、ドメインとサーバは別々にしていることが多いです。
話を戻して別会社のサーバを扱いたい場合はAレコードで設定してvalueにそれぞれのサーバのIP情報を入力すると良いです。さくらサーバのサーバIP情報はコントロールパネルのサーバ情報に記載されています。その情報をAレコードに入力してあげれば良いです?
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
com, web, お金, こと, サーバ, サーバー, さくら, サブ, セオリー, ところ, ドメイン, ネーム, はめ, まま, メイン, もの, レコード, レンタル, 両方, 会社, 何故, 使用, 保持, 別会社, 制作, 取得, 名前, 場合, 大体, 無駄, 発売, 発生, 移管, 移行, 紐, 設定, 話, 販売, 高額,
ノーコードって知ってますか?
2020.08.25
ノーコードって知ってますか?ITエンジニアだったら一度は聞いたことがあるとは思いますが、ノーコードってのはプログラムを書かずにUI(ユーザーインターフェース)上でウェブサイトやアプリが制作することが可能になるというものです。これって中小企業や零細企業にはかなり痛い話です。
こういうサービスを使えば簡単にアプリやウェブサイトが作れてしまいます。それも無料で作れるのです、広告表示が気にならないなら無料で広告表示を退けたい場合は月1000円ぐらい払えば退けてくれるので本当に便利なんです。
じぶんはノーコードをお勧めします、10万円のお金を払うなら自分たちで作ったほうが良いかなと特にアプリは企業に依頼すると高額な請求になるので簡単な仕様ならばノーコードのサービスを使用して自分たちで作ることをお勧めします。
ちなみにノーコードってこんなだよって話をしている動画がユーチューブで検索するといろいろな人が解説しているので見てみてください。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
10, 1000, IT, UI, アプリ, いろいろ, インターフェース, ウェブ, エンジニア, お勧め, お金, かなり, コード, こと, これ, サービス, サイト, じぶん, それ, ノー, プログラム, もの, ユーザー, ユーチューブ, 一度, 万, 上, 中小企業, 人, 仕様, 企業, 使用, 依頼, 便利, 制作, 動画, 可能, 場合, 広告, 月, 本当, 検索, 気, 無料, 簡単, 自分, 表示, 解説, 話, 請求, 零細, 高額,
倹者{ケンジャ}の流儀というYOUTUBER
2020.03.21
倹者の流儀というYOUTUBERさんが言っていることは金銭的に的を得た話を言っていると思います。下記の動画にもあるように100万円貯めると「こころ」に余裕が出てきます。ちなみに無職な自分も100万円はあったりするか、どうかはご想像におまかせしますね。ちなみに2020年の1月に引き落とされた60万円後も一応、節制しているというか、高額な商品を買うこともないので生きて行けてます。
お金の貯まらない理由の一番はお金が貯まらない構造を作っているからだと思います。月々差し控えれるお金の見直しが必要だったり彼が言っているように固定費見直す必要があります。ちなみに自分が思うには本当にお金が貯まらない人は構造を見直す必要があります。自分がそうだったように無駄遣いという構造を見直す必要があります。例えば見ないのにネットフリックスを契約しているとか、そういうサブスクリプション(サブスク)が多かったら年間にすると無駄遣いにあたります。そんな感じでお金の無駄を見直すだけでかなり変わります。いまは収益はないのですが、月々の引き落としは最低限に抑えられています。
最後に倹者の流儀YOUTUBERのチャンネル登録はこちらになります。
https://www.youtube.com/channel/UCdoqNcqLb6b1qPzZW8wAIbg
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
1, 100, 2020, 60, YOUTUBER, おまかせ, お金, ケンジャ, こころ, こと, ご想像, サブ, サブスクリプション, スク, ネットフリックス, 一, 万, 下記, 人, 余裕, 動画, 商品, 固定, 契約, 年間, 彼, 必要, 感じ, 月々, 本当, 構造, 流儀, 無職, 無駄遣い, 理由, 的, 節制, 自分, 話, 高額,